 Je vais présenter très brièvement Michel Spiro, qui est notre conférencié de ce soir, qui va parler du grand anneau du cerne et les deux infinies et qui va aussi répondre à toutes les questions auxquelles vous pourrez penser dans une seconde partie de son... Après son exposé. Michel Spiro est surtout connu à l'heure actuelle comme président du Conseil du Cerne et donc lié aux... aux zones de X et tout le monde a entendu parler de lui et donc je lui laisse la parole très rapidement. Merci beaucoup. J'espère que vous m'entendez. Souriez, vous êtes filmé. Donc je vais vous parler, juste pour compléter la présentation, puisque vous êtes jeunes, je vais quand même vous raconter mon cursus. J'ai été dans les classes préparatoires aux grandes écoles. J'ai fait l'école polytechnique. Ensuite, j'ai fait de la recherche en physique des particules, astro-particules et astrophysiques. J'ai été tour à tour enseignant à l'école polytechnique. J'ai dirigé un service plus un département au COA et ensuite un département au CNRS, de physique des particules, de physique nucléaire. J'ai représenté après la France au Conseil du Cerne. Je vous parlerai du cerne et du côté un peu géopolitique que représente le cerne. J'ai été élu fin 2009 président du Conseil du Cerne pour 3 ans et je termine ce mandat la semaine prochaine. La fin de la semaine prochaine. Je vais m'asseoir, parce que ce sera peut-être plus facile pour vous faire des présentations. Je vais vous parler, comme le titre l'indique, du grand anneau du cerne dont vous pouvez voir une image de la projection sur le sol. C'est une machine souterraine de 27 km de circonférence qu'on appelle le LHC et qui fait collisionner des protons qui tournent dans un sens ou dans l'autre et qui donc se rentrent dedans de plein fouet ou même aussi des noyaux de plomb. Plomb-plomb fait aussi des collisions plomb-plomb. Et donc ça permet, d'une part, de mieux comprendre les composants élémentaires de la matière, ce qui a dans les protons fabriqué des particules par la relation E égal MC2. La violence du choc, c'est une énergie considérable. Et en même temps, ça permet aussi de reproduire en laboratoire des états de la matière telles qu'elles étaient lorsque l'univers était beaucoup plus chaud que maintenant et beaucoup plus pudance que maintenant puisque les lois de la physique nous permettent de remonter l'histoire de l'univers et de savoir qu'il était de plus en plus chaud, de plus en plus dense, plus en remonte dans le temps. Et donc, en laboratoire, on reconstitue un petit peu, on essaie d'avancer, faire un peu l'archéologie de l'univers tel qu'en reconstituant la manière dont la matière se comportait dans les tout premiers instants de l'univers. Alors le site, il faut bien voir quand même la taille de cet anneau, un 27 km de circonférence. Ici, vous voyez, c'est près de Genève, c'est sur la frontière franco-suisse. Là, vous avez le lac Léman, pour ceux qui connaissent un peu le coin, le Mont Blanc, ici. Le Jura est en premier plan, ici. L'anneau passe près de Fernevoltaire, de Jax, et le centre historique du cerne, qui est en Suisse, il est de ce côté-là, ici, l'anneau, c'est marqué cerne. La frontière est en pointillé, donc la machine est essentiellement du côté français. La Suisse est par là, et la France est par ici. Le cerne historique a commencé à se construire à partir des années 50. Le cerne a été créé en 1954. Et la première machine, on la voit à peine, tellement elle est petite, elle était en rouge, ici, dans les années 60. Ensuite, on a eu, qu'on appelait le PS, Saint-Crotron à Proton. Ensuite, on a eu une machine dans les années 70, 80, qui a été construite, qu'on appelle le SPS, qui fait déjà 7 km de circonférence. C'est déjà pas mal. Le PS injecte les protons dans le SPS, qui les accélère beaucoup plus. Et le SPS, lui-même, maintenant, depuis 2010, injecte dans le LH, qui fait 27 km de circonférence. Les protons sont gardés sur leur orbite circulaire par des aimants. C'est les aimants qui courbent la trajectoire des protons. Et on a ce grand rayon, et les aimants, on les fait monter le plus haut possible. Mais à chaque tour, on accélère un peu plus encore les protons. Mais arrive une limite. Dans la limite, actuellement, c'est 7, 8 tèvres. Tèvres, c'est teraélectronvolte. C'est-à-dire, c'est des milliers de... C'est 10 puissance, 12 électronvoltes. Un millier de milliards d'électronvoltes. L'électronvolte, à vous connaissez, c'est l'énergie qui acquiert un électron dans une différence de potentiel d'un volt. Et bien là, on est dans des milliers de milliards d'électronvoltes. Et si on accélère plus, eh bien, les protons prennent la tangente parce que les champs magnétiques n'arrivent pas à ce moment-là à les garder sur leur orbite circulaire. Alors, pour avoir un petit peu plus de détails sur ces machines et cet emboîtement de machines, donc le PS, c'est ici, on le voit à peine, il est tout petit. Il fait 600 mètres de circonférence. Le SPS fait 7 km de circonférence. Donc, comme je l'ai dit, c'est les années 70-80. Et le LH est ici. LH, ça veut dire Large Hadron Collider. C'est un collisionneur, donc de protons. On appelle Hadron. Hadron, c'est tout ce qui est fait de Quark. Donc les protons, les neutrons, les noyaux de plomb aussi qu'on collisionne les uns contre les autres. Donc, il y a la dernière machine qui fonctionne actuellement. Et donc là, vous voyez un peu le schéma des machines. On le voit un peu mieux. On part en fait d'une bouteille d'hydrogène qui se situe ici. On met un grand champ électrique. Ça casse l'hydrogène en protons d'un électron. Dans les années 80 et 90, on accélère les électrons. Et depuis les années 2010, donc maintenant, c'est les protons qu'on accélère. Alors les protons, donc, on les emmène dans une première machine qu'on appelle le booster, qui monte jusqu'à environ 1 gigaélectron volt, un milliard d'électron volt. Ensuite, on va dans le PS qui montre jusqu'à 26 milliards d'électron volt. Et ensuite, le PS va, comme je vous l'ai dit, dans le SPS qui fait 7 kilomètres de circonférence. Et qui monte jusqu'à 450 milliards d'électron volt. Et ensuite, on va dans le LH, maintenant depuis 2010, qui monte jusqu'à 7 ou 8, maintenant, 1000 milliards d'électron volt, 8 teraélectron volt. Géves, c'est gigaélectron volt, c'est l'miniard. Thèves, c'est les teraélectron volt, c'est les milliers de milliard. Toutes ces machines fonctionnent, donc ça en série, si je puis dire, mais en même temps, on fait de la physique auprès de ces machines. Par exemple, le PS est utilisé toujours pour fabriquer avec les 26 gèves. Vous savez que la masse d'un proton, c'est de l'ordre d'un gève. C'est-à-dire qu'avec des protons de 26 gèves, on peut arriver à fabriquer non seulement dans des collisions protons-protons, on peut fabriquer des paires protons-antiprotons. L'antiproton, c'est l'antiparticule du proton. C'est comme le proton, mais il a une charge moins au lieu d'avoir une charge plus. C'est une particule d'antimatière. Et donc avec le PS, on fabrique plein d'antiprotons qu'on emmène dans cette machine pour les décélérer et on les ramène presque au repos. Là, on leur fait rencontrer des positrons, qui sont les antiparticules de l'électron, et on fabrique, qu'en ce moment, c'est la plus grande usine à antimatière du monde, le CERN, on fabrique des antihydrogènes que l'on stocke à travers des gradients de champs électriques, des gradients de champs magnétiques, donc ce qu'on appelle des bouteilles électromagnétiques, et on arrive à les ralentir suffisamment pour qu'ils soient presque au repos. Et on entraient maintenant de commencer à... On a pratiquement fabriqué maintenant des miniers d'atomes, d'anti-atomes ou d'atomes antihydrogènes, comme vous voulez, pendant des miniers de secondes. Et donc on est capables, maintenant, avec des lasers, de les exciter et de regarder si les propriétés chimiques, atomiques de l'antihydrogène, si les spectres sont les mêmes que les spectres de l'hydrogène, ce à quoi on s'attend. Et plus important encore, on voudrait les ralentir suffisamment pour les voir tomber dans le champ gravitationnel, ou voir si, au contraire, par hasard, il aurait tenté d'être repoussé par le champ gravitationnel. Pourquoi ces recherches sont importantes, c'est que, normalement, les lois de la physique sont symétriques entre les protons et les antiprotons, entre les particules et les antiparticules. On est parti dans les premiers instants de l'univers de radiation, d'énergie quasiment pure, de la radiation, de la lumière. Et cette radiation s'est convertie en matière, et normalement, elle aurait dû se convertir en autant de particules que d'antiparticules. Et donc dans l'univers, il devrait y avoir autant de matière que d'antimatières. Et donc on devrait pouvoir observer des anti-étoiles, des anti-galaxies. Et aussi loin qu'on regarde, on a l'impression qu'il n'y a pas d'anti-étoiles et pas d'anti-galaxies, parce que, bien, si on avait, il y aurait forcément des zones frontières, parce que l'univers n'est pas vide. Il y aurait des zones frontières où la matière et l'antimatière se rejoindraient, et donc ça s'anihilerait. Lorsqu'un proton rencontre un proton, il s'anihile, ou un positron et un électron, et ça donnerait un rayonnement énergique caractéristique que l'on n'observe pas. Et donc on se demande où est passé l'antimatière dans l'univers. Alors peut-être que l'antimatière est antigravite, et elle est partie au-delà de l'univers observable. Il y a également, pour essayer de voir s'il n'y a pas d'anti-galaxies, vous savez que tous les éléments lourds à partir du carbone sont fabriqués dans les étoiles. Il y a guère que l'hydrogène, l'hélium, qui ont été fabriqués au moment du Big Bang. Tout le reste, au-delà de l'hélium, les éléments plus lourds ont été fabriqués dans les étoiles et ont été relâchés dans le cosmos lors des explosions d'étoiles à la fin de leur vie, et ça donne des nouvelles générations d'étoiles, mais ça donne aussi ce qu'on appelle des rayons cosmiques, et donc on voit, effectivement, dans le rayonnement cosmique, des noyaux de carbone, de fer, d'uranium, de tout ce que vous voulez, qui ont été expulsés par les étoiles, et donc le CERN a mis en place, sur la station spatiale, un satellite, c'était d'ailleurs pratiquement avec la dernière navette, qui est partie, l'avant dernière navette, qui regarde s'il n'y a pas des noyaux d'anti-carbonne ou d'anti-uranium qui seraient la signature d'anti-étoiles dans l'univers. Pour l'instant, on n'en a pas observé, ça a été en 2010 que avec les expériences de ballons, on n'en a pas observé, mais maintenant qu'on a cette expérience sur la station spatiale ou la salle de contrôle d'ailleurs au CERN, dans peu de temps, il devrait donner les résultats de cette expérience et on saura si, effectivement, il n'y a pas, par hasard, peut-être, des noyaux d'anti-carbonne ou d'anti-uranium qui seraient la signature d'anti-étoiles et d'anti-galaxies lointaines. Alors voilà, pour tout ça, pour vous dire que le PS continue à tourner, à fabriquer de l'antimatière. Le PS injecte dans l'SPS. Le PS, lui aussi, fait la physique en particulier. Il en voit ici, vous voyez, en rouge. Il fabrique des faisceaux de neutrinos. Les neutrinos, c'est des particules passe-muraille qui traversent la Terre, traversent le Soleil, qu'on a du mal à détecter, mais on en fabrique suffisamment pour pouvoir les détecter à distance. Et ces neutrinos vont dans la Terre et ressortent aux grands sassos dans les abruzes en Italie avec des détecteurs, donc ils prennent la corde terrestre en partant du CERN. Ils passent sous l'aéroport de Genève et ils ressortent en Italie et on étudie les propriétés des neutrinos. On s'aperçoit d'ailleurs qu'ils changent d'état entre le CERN et au moment où ils reparaissent en Italie. A un moment, pour ceux qui ont suivi l'actualité, on a cru qu'ils allaient même plus vite que la vitesse de la lumière pour faire ce trajet. Mais depuis, on a pu montrer que c'était une erreur expérimentale qui a pu être corrigée, d'ailleurs par l'expérience elle-même et en plus la mesure a été refaite par trois ou quatre expériences qui sont en Italie. Et maintenant, on peut montrer que les neutrinos vont effectivement, ils ont une masse quasiment nulle et ils vont à la vitesse de la lumière à une très bonne exproproximation près. Donc, le USPS continue à tourner, a fait ses expériences de neutrinos et il injecte donc dans les lâchés qui a fait des découvertes dont vous avez entendu parler, notamment la découverte du boson de l'Higgs, laquelle je reviendrai, mais également la découverte d'un nouvel état de la matière fait de croix et de gluons, un plasma de croix et de gluons lorsqu'on a l'heure de collision plomb-plomb où tous les croix qui sont confinés dans les protons se sont libérés de leur carapace pour former une espèce de boule de croix et de gluons dont on a pu regarder les propriétés. C'est ça essentiellement les deux grandes découvertes depuis 2010. C'est le plasma de croix et de gluons et puis le boson de l'Higgs. Vous voyez quand même que cette stratégie, c'est une stratégie qui s'est construite par étape sur la durée, sur 50 ans, elle associe des chercheurs du monde entier. Il y a 10 000 chercheurs, plus de 10 000 maintenant, 11 000 qui viennent pratiquement de tous les pays du monde, y compris de l'Inde, du Pakistan, de l'Iran, d'Israël, des grands pays, Etats-Unis, Japon et qui travaillent ensemble pour mieux comprendre la matière et puis comment elle était au tout premier instant de l'univers. Donc c'est une stratégie à long terme, mondialisée, très ouverte. C'est un peu le contraire de la mondialisation qu'on connaît actuellement en économie, qui est à court terme compétitive et très fermée avec des brevets et des systèmes comme ça. Donc c'est un peu l'antidote de la mondialisation actuelle. Alors comme je l'ai laissé entendre, la physique appréhende des échelles de distance qui vont depuis l'infiniment petit. L'échelle sur laquelle on bute ces 10 puissances, moins 32 cm, c'est ce qu'on appelle l'échelle de Planck. Le mur de Planck, c'est le mur de l'ignorance, si je puis dire, parce qu'à ces distances-là, il faut faire appel à la fois, à la gravitation, à la mécanique quantique et à la théorie de la relativité. Et on ne sait pas marier ces trois types de physique, la mécanique quantique et puis la théorie de la relativité avec la gravitation. On ne peut pas jusqu'à présent, la théorie de la relativité d'Einstein, suivre son chemin propre avec une vision géométrique. Les chemins parcourus sont des géodésiques, c'est déterministe. Alors que les autres interactions, autres que la gravitation, qui sont des interactions traitées par des théories quantiques, théories quantiques des champs relativistes, obéissent à un hasard intrinsèque, c'est-à-dire à la mécanique quantique, qui est une théorie probabiliste, et le mariage des deux, on ne sait pas le faire. Or, à partir des trois grandes constantes fondamentales, la constante de Planck, qui intervient en mécanique quantique, la constante de la gravitation, qui intervient chez Newton, et la vitesse de la lumière petit c, qui est donc la théorie de la relativité. Avec ces trois quantités, vous pouvez fabriquer une échelle de distance, 10 puissance moins 32 cm, ou bien une échelle d'énergie, 10 puissance 19 Gèves, qu'on appelle la longueur de Planck, ou bien l'énergie de Planck, et bien assez à des énergies plus grandes ou à des distances plus petites. Il faut arriver à marier. On ne peut pas ignorer les effets de l'un et de l'autre. Il faut traiter les effets quantiques de la gravitation. Actuellement, on ne sait pas le faire. Et donc, lorsqu'on extrapole l'histoire de l'univers, lorsqu'il était de plus en plus chaud et de plus en plus dense, on tombe sur cette échelle de Planck, pour laquelle on ne sait pas décrire les lois de la physique, et donc on ne peut pas dire qu'est-ce qu'il y avait au-delà. C'est là où l'archéologie s'arrête. Dans l'autre extrême, c'est l'échelle de l'univers observable, 10 puissance 28 centimètres. On ne peut pas voir la lumière au-delà de ça, parce que l'univers n'était pas transparent au-delà de 10 puissance 28 centimètres. Et parce que 10 puissance 28 centimètres, ça correspond à 13 milliards d'années lumières. 13 milliards d'années lumières, c'est-à-dire que la lumière met 13 milliards d'années pour nous parvenir, et il y a plus de 13 milliards d'années. L'univers était tellement dense, qui était opaque, et donc on ne peut pas l'observer plus loin. Donc voilà, c'est ça, les deux échelles. Entre vous avez le proton qui est à 10 puissance moins 13 centimètres, l'atome qui est à 10 puissance moins 8 centimètres. Evidemment, dans l'autre sens, vous avez le rayon de la Terre, les rayons des galaxies. Et donc au milieu, vous avez la taille d'un être humain, que vous connaissez peut-être, qui se situe là. Pour observer l'univers à très grande échelle, vous savez qu'on utilise des télescopes, soit embarquées comme Hubble, soit au sol, comme le VLT au Chili ou bien Alma au Chili, ou bien, comme je l'ai dit, on utilise des spectromètres d'antimatière sur la station spatiale, donc je l'ai parlé il y a un instant. Pour regarder l'affiniment petit, c'est là où on utilise cette machine qu'on appelle le LH qu'on peut voir comme un super microscope, puisque plus on monte en énergie, vous savez, les microscopes à l'électron ont une résolution meilleure qu'avec la lumière visible, parce que les électrons ont une énergie plus grande que la lumière visible, et bien avec les protons du LH, on peut les voir comme un super microscope qui permet de regarder les quarks, et de regarder à l'intérieur des quarks si il y a quelque chose. Pour l'instant, on ne voit rien, ils ont l'air ponctuels. Donc cette machine, les 27 km, c'est fait de grands aimants, il y a des minier-déments, et puis des cavités accélératrices pour leur donner une petite pichonnette et les accélérer à chaque tour. Quand on observe la matière, on s'aperçoit qu'elle est... C'est une suite de poupées russes. C'est un emboîtement de structure et un emboîtement de lois de la physique. On peut parler de théories qui s'emboîtent les unes dans les autres. Lorsqu'on parle de la matière classique, une infinie université, et, par contre, les lois sont relativement simples. Par exemple, la loi des gaz parfaits, on fait appel à la pression, à la volume, la température, et on a la fameuse loi PV égale NRT que vous connaissez. Mais si on regarde plus près les gaz ou la matière, on s'aperçoit qu'elle est faite de molécules, c'est la chimie. Les molécules sont faites d'atomes. C'est la mécanique quantique. A cette échelle-là, la mécanique classique ne s'applique plus. On a affaire à des théories quantiques qui sont... Les atomes sont à la fois ondes et corpuscules, où les phénomènes obéissent à des probabilités. C'est des théories probabilistes et non pas déterministes. Mais, par contre, on sait que si on a un grand nombre d'atomes, on s'attend à ce que la mécanique quantique a appliqué un grand nombre d'atomes. Elles donnent les lois de la mécanique classique. On passe de la mécanique quantique à la mécanique classique par un grand nombre d'atomes, parce qu'on appelle la décovérance quantique, lorsqu'on a un grand nombre d'atomes. C'est ce qui a valu à Serge Arroche, le prix Nobel récemment. Les atomes sont plus considérés comme élémentaires, même si, étymologiquement, ça veut dire insécables, on sait qu'ils sont sécables. Il y a d'un côté les électrons qui, eux, sont toujours élémentaires et qui tournent autour de noyaux, lesquels sont faits d'obéissent à la physique nucléaire, qui, elle aussi, découle un emboîtement par rapport à la mécanique quantique. Et les noyaux sont faits de protons et de neutrons, donc tout ça, c'est encore la physique nucléaire. Les protons et de neutrons ne sont plus élémentaires, ils sont faits de quarks et les quarks sont élémentaires au même titre que les électrons. Et pour décrire les quarks et les électrons, on utilise ce qu'on appelle la théorie quantique des champs relativistes, ou le modèle standard, qui est actuellement la limite théorique que l'on a pour appréhender ce niveau de l'élémentarité de la matière. Mais toutes ces théories s'emboîtent les unes dans les autres, ce sont des théories effectives à chacune des échelles, de la même manière que les structures s'emboîtent les unes dans les autres. Il faut voir qu'on est partis d'une infinie diversité avec des lois assez simples, et on arrive à un nombre de composants élémentaires extrêmement réduits. Toute la matière stable est faite de deux types de quarks, UED et d'électrons, donc trois particules. Ceci dit, il existe d'autres familles de quarks et d'électrons, donc on arrive à une douzaine de particules. Enfin, quand même très, très peu. Au milieu, on avait des dizaines de milliers d'atomes, des milliers de noyaux et donc quelques dizaines de composants élémentaires. Par contre, ils sont devenus extrêmement abstraits, c'est-à-dire, pour décrire un quark, on ne peut pas le décrire comme ça, il faut utiliser la tiraille de la théorie quanticredéchant relativiste. Autrement dit, un quark lui-même, on ne peut pas se le représenter, il faut vraiment avoir la théorie pour se le représenter. Donc on est partis d'un monde dans lequel on avait des lois qui étaient complètement distinguées de la matière, et on arrive à une matière extrêmement diverse, et on arrive à un nombre de composants très réduits, mais qui portent en eux la complexité des concepts. On ne peut pas les décrire autrement qu'avec des concepts. Et donc le monde des lois et le monde de la matière, là, se rapproche complètement à un quark. Pour dire ce que c'est qu'un quark, on peut le dire qu'à travers la théorie quanticredéchant relativiste. Donc vous voyez qu'on est partis de la matière, qui est obligée plutôt aux idées de Platon, où la monde des idées est vraiment très différent du monde de la réalité, à un monde où, pour décrire la matière, les quarks, il faut vraiment faire appel à la théorie, on a l'impression que les deux mondes se rejoignent. Encore une fois, ce super-microscope qui étudie les quarks, il étudie donc l'infiniement petit, mais il étudie en même temps les lois de la physique juste après le Big Bang, c'est-à-dire que lorsqu'un univers était très chaud et très dense, tel qu'on peut le reproduire en laboratoire avec le LH. Donc encore la même image. Voilà maintenant tous les composants, c'est le résultat de 50 années de progrès. Donc voilà les composants qui constituent la matière stable, les deux quarks QED, les électrons, et puis auquel est associé le fameux neutrino, dont j'ai parlé tout à l'heure, mais il existe par rapport à cette famille qui constitue toute la matière stable, des familles instables, il y a trois familles, donc de quarks, et puis par exemple le muon, c'est exactement comme un électron, mais c'est un électron lourd, et ces quarks-là, c'est comme les quarks QED, mais lourd, et la troisième famille qui est là. Donc ça c'est les particules quand même qu'on appelle des particules de matière, parce qu'elles ont ce qu'on appelle des fermions, elles ont un spin demi-entier, c'est-à-dire un moment angulaire qui est demi-entier, et dans la théorie quantique des champs relativistes, le fait qu'elles aient des spins demi-entiers, que ce soient des fermions, ça nous empêche de les mettre dans le même état quartique, on ne peut pas mettre deux fermions dans le même état quantique, deux fermions identiques dans le même état quantique, et c'est ça qui rend compte de l'impenétrabilité, c'est quand même ce qui reste de l'impenétrabilité de la matière. Le monde des forces, le monde des lois, dans une certaine mesure, est lui aussi représenté par des particules, donc on voit bien qu'il se rapproche ces deux mondes, les forces sont véhiculées par des particules, la force électromagnétique est véhiculée par le photon, la force forte est véhiculée par le gluon, la force qu'on appelle faible, qui est responsable de la radioactivité bêta, ou bien de la fusion thermonucléaire de l'hydrogène dans le soleil, et véhiculée par des particules lourdes qu'on appelle les bosons intermédiaires, qui ont aussi été découvert au CERN dans les années 80, et qui sont très lourds, c'est pour ça d'ailleurs que cette force est faible, et qui fait que les neutrinos qui n'interagissent que par cette force-là, c'est pour ça qu'ils ne se font pas se murail, ils arrivent à traverser le soleil, et la Terre, ils ne subissent que cette force-là. Les électrons subissent à la fois la force faible et la force électromagnétique, et les coires que eux subissent les trois forces. Donc vous voyez que les forces sont véhiculées aussi par des particules, mais la différence c'est que ces particules sont de spin entier, en l'occurrence de spin 1, et c'est ça qui fait qu'on peut les mettre dans le même état quantique, et c'est comme ça qu'on fabrique des lasers. Les lasers c'est des photons tous mis dans le même état quantique. Donc ça c'est le modèle standard de la physique des particules, c'est celui-là, il décrit donc toutes les interactions quantiques par la gravitation, qui est un monde à part traité par Einstein, la géométrie relativiste et déterministe. Donc le monde des interactions quantiques c'est celui-là, le modèle standard, mais si on avait que ça, le modèle standard serait incapable de donner une masse à toutes ces particules. Elles auraient toutes une masse nulle, et pour arriver à rendre le modèle cohérent avec une masse attribuée aux particules, une masse qui possède les particules, parce qu'on sait qu'elles sont massives, eh bien il faut pour ça, et c'est cette particule qu'on recherchait depuis maintenant 30 ans, ce fameux 40 ans même, c'est le boson de Yggs, le fameux boson de Yggs, qui a été découvert le 4 juillet de cette année, qui était prédit par des théories dans les années 60. Des théories, d'ailleurs ça m'offrète, le mécanisme a été prédit pas simplement par Yggs, mais par Brut, Englert et Yggs, ils sont trois, deux belges et un anglais, c'est évidemment la puissance des médias anglo-saxons qui a fait qu'on entend parler que de Yggs, et que les deux autres sont un peu ignorés. J'espère que courtier a le prix Nobel, on saura reconnaître le mérite des trois. Malheureusement, un des trois, Braut est décédé il y a un an. Alors ce boson de Yggs, il a la propriété de conférer au vide quantique. Alors le vide quantique, lui aussi, il n'est pas aussi vide qu'on pourrait imaginer. Déjà, le vide classique, il faut bien se rendre compte que déjà, la notion de vide classique ne pouvait pas tenir la route, puisque si vous prenez une enceinte et vous faites le vide, vous pompez, vous enlevez toutes les molécules que vous pouvez enlever là-dedans, il n'empêche qu'il y a des parois qui rayonnent. Et donc, vous ne pouvez pas enlever le rayonnement, même conceptuellement, vous avez toujours quelque chose dans le vide classique. Alors dans le vide quantique encore plus, parce que les relations d'incertitude font que si on l'observe de très près, pendant un temps très bref, il fluctue. Le vide quantique est considéré comme l'état d'énergie le plus bas, mais cet état d'énergie le plus bas, il a d'abord, il peut avoir une énergie, et ensuite, il peut être plein de fluctuations quantiques. Et donc, il est considéré comme un quasi-milieu, et le boson de Yggs confère à ce quasi-milieu une sorte de viscosité. Et ce sont les particules qui, à travers leur interaction avec le vide quantique, acquièrent une masse dans ce vide quantique. C'est même vraiment un quasi-milieu au point qu'il a connu une transition de phase lorsqu'on remonte dans le temps, et lorsque l'énergie et la densité étaient plus grandes que ce qu'on fabrique au LH, une température plus grande que ce qu'on fabrique avec le LH, eh bien, la viscosité disparaît, et toutes les particules dans les tout premiers instants de l'univers, lorsqu'il était plus dense et plus chaud que ce qu'on fabrique au LH, eh bien, les particules avaient une masse nulle, toutes les particules avaient une masse nulle, et donc elles se ressemblaient de plus en plus. Donc vous voyez qu'on peut imaginer qu'à des températures et des énergies plus grandes que le LH, eh bien, les particules étaient encore plus identiques les unes aux autres. Et donc on va vers une sorte de monisme, c'est-à-dire de particules uniques, de forces uniques, de plus en plus unifiées, avec en plus, comme je vous l'ai dit, une sorte d'immanence, c'est-à-dire que les particules et lois se sont intimement mêlées pour les décrire, et c'est un petit peu la vision de Spinoza par rapport à la vision de Platon, pour ceux qui s'intéressent à la philosophie, ce qu'on appelle l'immanence par rapport à la transcendance. Alors cette aspiration vers l'unité, vers la grande unification, vers aller vers une seule particule et une seule force, on la voit, donc elle va de la droite vers la gauche, et c'est pratiquement l'histoire de la physique, de buccalaphytique née. Puisqu'on a vu, tour à tour, la gravité céleste et la gravité terrestre, la gravité terrestre, c'est la pomme qui tombe sur la tête de Newton. La gravité céleste, c'est le mouvement des planètes autour du Soleil, qui se sont unifiés pour donner la gravitation universelle de Newton, qui après a donné la théorie de la relativité générale d'Einstein, donc c'est cette fameuse théorie déterministe et géométrique qui suit son chemin. Les interactions quantiques sont ici. Elles ont connu aussi à travers l'unification de magnétisme et de l'électricité et donc dans l'électromagnétisme de Maxwell, une première unification, et une deuxième plus récente qui a été faite avec la machine qui a précédé le LH, qui s'appelait le LEP, dans lequel on a accéléré, on faisait collisionner des électrons et des positrons dans la grande machine de 27 km du cerne. Déjà à des énergies de quelques centaines de jèves, on pouvait montrer que les forces électromagnétiques et les forces faibles devenaient indifférenciables, une indifférenciation entre les deux, et on arrivait à un modèle, qu'on appelle le modèle électrophèble, qui est de mise au LH. On ne peut pas distinguer l'interaction électromagnétique et l'interaction faible dans les conditions de température, enfin d'énergie et de densité que l'on a au LH. On s'attend à ce que l'interaction forte, elle-même, signifie avec l'interaction électrophèble vers 1815 jèves, et qu'entre les deux, et qu'on appelle une supersymmétrie, cette supersymmétrie devrait en principe établir une symétrie entre les particules de force et les particules de matière. Chaque particule de matière devrait correspondre à chaque particule de force, une particule de matière, et donc on devrait trouver un doublement des particules alimentaires. On devrait trouver les images des particules que l'on connaît aujourd'hui dans ce monde de la supersymmétrie. On les cherche activement au LH, et pour l'instant, on ne les a pas trouvés. Pourtant, la théorie prévoit que ces particules devraient avoir une masse de l'ordre de pas plus que 1000 jèves, ces particules supersymétriques. La plus légère devrait être stable et constituer ce qu'on appelle la matière noire ou la matière sombre dans l'univers, qui est une grande énigme dans la composition actuelle de l'univers. Donc là, actuellement, on les a pas trouvés et on les cherche activement au LH. On espère qu'en doublant l'énergie du LH, on pourra les découvrir. Mais pour l'instant, on n'a rien trouvé. C'est pourtant une étape nécessaire pour aller vers la grande unification et pour la unification encore plus rêvée avec la gravité quantique vers 10 puissance 19 jèves, la fameuse échelle de Planck, où il y a quelques théories qui existent, qu'on appelle les théories de cordes ou des supercordes, qui sont des théories très mathématiques, mais qui, pour l'instant, n'ont pas encore de confirmation expérimentale. Comme je vous dis, toutes les mouvements de la physique, quand on va vers les grandes énergies, vers les petites distances, vers les très grandes densités, temps vers une signification profonde des particules, des forces, des lois et de la matière. Alors, retradue-t-en l'image de l'histoire de l'univers. Là, il décrit l'univers observable. Nous, on serait ici. Lorsqu'on remonte dans le temps, on sait que l'univers actuellement est en expansion, même en expansion accélérée. On pense que cette expansion accélérée est due à l'énergie du vide, dont je vous ai parlé l'énergie de l'État le plus fondamental. Cette expansion, donc quand on remonte dans le temps, plus que l'univers est en expansion, c'est l'espace humaine qui est en expansion. Lorsqu'on remonte dans le temps, les choses se rapprochent les unes des autres. Comme un gaz devient la température d'univers qu'on peut mesurer, puisqu'on a un rayonnement fossile du premier instant, qui est un rayonnement qui est actuellement à 2,7 degrés qu'elle vine, et bien, lorsqu'on remonte dans le temps, la température de l'univers, la densité de l'univers augmente. Tous les objets sont les plus proches de l'un des autres. Ce rayonnement fossile devient de plus en plus chaud. Au point que, comme je l'ai dit, on arrive à un univers qui était quasiment opaque il y a 13 milliards d'années, lorsque l'univers avait, de l'ordre du million d'années. Et là, les atomes deviennent dissociés. Si on raconte l'histoire, on tend vers une espèce de singularité de température qui tend vers l'infini, de densité qui tend vers l'infini. Comme je vous l'ai dit, on ne peut pas aller plus loin qu'une température de 10 puissance 19 geves. C'est une température très élevée. Il faut bien voir qu'aux LH, on reproduit des températures de l'ordre d'une thève, c'est-à-dire millier de geves. La limite sur laquelle on peut extrapoler les lois de la physique, c'est les 10 puissance 19 geves, donc c'est beaucoup plus que ça. C'est là où, effectivement, la gravité devrait devenir quantique, et on ne sait pas la traiter. Mais si on part de cet instant-là, très chaud et très dense et très petit, c'est tout l'univers observable tené dans 10 puissance moins 32 cm, si on part de cet instant-là, il a connu une expansion accélérée dans les tout premiers instants au bout d'une pico seconde, une pico seconde, c'est-à-dire 10 puissance moins 12 secondes. Vous connaissez la micro seconde, la nanose seconde, la pico seconde. Au bout d'une pico seconde, c'est là où le fameux méganisme de X conduit à une transition de phase du vide quantique. Les particules qui étaient avant sans masse et la lumière apparaissent au bout d'une pico seconde. A la fois, la lumière fut et la masse vinte au particule au bout d'une pico seconde. Avant, c'était une espèce de hyperlumière, puisque toute la lumière était unifiée à l'interaction faible et à l'interaction forte. Là, après une pico seconde, la lumière, les photons deviennent ce qu'ils sont, et la masse vient au particule. Après, une micro seconde, les quarks et les gluons qui constituent une sorte de plasma sont confinés dans les protons et les neutrons. On voit apparaître les protons et les neutrons. Après trois minutes, on voit apparaître les noyaux. Après un million d'années, on voit apparaître les atomes. A partir de ce moment-là, lorsqu'on a les atomes, la lumière devient transparent. C'est-à-dire que la lumière peut voyager sans être piégée par le plasma de charge positive et de charge négative. Avant que les atomes soient constitués, les particules deviennent neutres, ce sont les atomes. A partir de là se constituent les premières étoiles, les premières galaxies, et donc toute la complexité que vous connaissez, la chimie, qui fait que la vie apparaît au bout de 10 milliards d'années. Et donc toute cette série de transitions, est-ce qu'elle est déterminée entièrement par des lois déterministes? Ou bien est-ce que, notamment dans les premiers instants, le hasard a joué un rôle, puisqu'on était dans un univers quantique et que la mécanique quantique est intrinsèquement probabiliste? Et par exemple, les collisions proton-proton qu'on a où elle est lâchée sont de nature quantique, et il n'y a pas de collisions proton-proton qui se ressemblent exactement. Et donc on peut se demander si l'univers tel qu'il est est le fruit d'un hasard quantique et qu'il n'y a pas d'autres bulles qui existent au-delà de ce point qui a donné naissance à notre univers observable, il est possible qu'au-delà de ce qu'on observe, il y ait d'autres bulles qui se soient produits avec des caractéristiques différentes de l'univers qu'on connaît. Et actuellement, on a cette grande question, grande énigme. Est-ce que tout ce qu'on voit dans l'univers s'explique à partir de conditions initiales? Ou bien, est-ce qu'il y a beaucoup de bulles comme ça au-delà de l'univers observable où les choses se sont passées différemment? Et nous, on est dans la bonne bulle qui a permis l'apparition de la vie dans cet univers observable. Un peu comme on est sur la Terre, alors qu'il y a des milliards de planètes, mais on est évidemment sur la Terre parce qu'il y a de bonnes conditions pour que la vie apparaisse et que dans les autres milliards de planètes, il n'y a pas de vie, peut-être qu'il y en a dans certaines planètes, peut-être que dans certaines de nos autres bulles, il y a aussi de la complexité d'apparition. Et actuellement, on n'est pas capables encore de répondre à cette question, quelle est la part du hasard, quelle est la part de la nécessité dans l'émergence de toutes ces structures, surtout dans les tout premiers instants de l'univers quantique. Alors, on a l'impression qu'à travers ce que je racontais, on connaît un petit peu tout, mais on a quand même donc des grandes questions. Alors, l'origine de la masse du particule, maintenant, on commence à l'avoir compris. C'est une transition de phase du vide quantique dans la première pico seconde. Qu'est-ce que la matière sombre, lorsqu'on regarde à travers la dynamique des galaxies, les vitesses, la distribution des vitesses, on est capables de remonter à la masse qu'il faut pour regarder les choses ensemble dans une galaxie. On s'aperçoit que la masse, que l'on peut visible, la masse des étoiles, la masse du gaz, la masse des planètes, la masse qui est faite de protons et de neutrons, d'atomes, ne suffit pas pour expliquer toute la masse dans l'univers. On a au moins 5 fois plus qui est constituée d'une matière dont on ne sait pas quelle est la nature. Elle n'a pas l'air d'être une matière faite de protons et de neutrons. Et donc, c'est peut-être effectivement ces fameuses particules supersimétriques qui pourraient éventuellement constituer cette matière sombre ou matière noire. Mais pour l'instant, on ne les a pas découvertes ni autour de nous, ni auprès des accélérateurs. Et encore plus énigmatique, il semble qu'il y ait une forme d'énergie, peut-être une énergie quantique du vide, qui est responsable de l'accélération de l'expansion de l'univers qui domine même par rapport à la matière sombre. Puisque environ 75 % de l'énergie, de la masse énergie, de la densité de masse et d'énergie dans l'univers est faite de cette énergie du vide qu'on appelle aussi la constante cosmologique, 25 % est fait de la matière noire et puis 5 % de la matière que l'on connaît. Où est passé l'antimatière, j'en ai parlé tout à l'heure. Bon, les neutrinos, j'en parlerai pas aujourd'hui, mais ça vaut une conférence à eux seuls. Et enfin, quel est le rôle du hasard, quel est le rôle de la nécessité pour expliquer l'émergence des structures dans l'univers. Donc vous voyez qu'on est quand même loin, même si je vous ai brossé un grand récit, on est quand même loin d'avoir tout compris et on est peut-être à la veille d'une révolution si on regarde le fait que 95 % de ce qu'il y a dans l'univers n'est pas compris. Donc il faut quand même rester très modeste, ça va. Donc depuis le mars 2010, et donc je vais rentrer un peu dans le détail des deux grandes découvertes, on a exploré des nouveaux territoires de l'énergie, si on peut dire, en faisant 1815, c'est-à-dire un million de milliards de collisions, il n'y a pas loin d'un milliard de collisions par seconde maintenant à l'eau ferme. A 7 et 8 milliers de geovolts, donc 7 et 8 milliers de gigaélectronvolts, de milliards d'électronvolts, dans le centre de masse. C'est-à-dire que vous avez des protons qui tournent à 4 milliers de milliards d'électronvolts dans un sens et 4 dans l'autre sens. La machine, voilà, l'utilisément de la machine, ça c'est le tunnel qui est à 50 mètres souterre. C'est un eau jaune, c'est un dessin sur la surface. En fait, tout ça se passe à 50 mètres ou 100 mètres souterre. Comme je l'ai laissé entendre, c'est une aventure scientifique hors normes. Le LH est conçu en 1980. Il a été approuvé dans les débuts des années 1980. Il a été approuvé en 1994. Et les premières collisions ont eu lieu en 2010. L'énergie et la luminosité nominale seront atteintes en 2015, puisqu'on espère en 2015 avoir deux fois plus d'énergie que ça. Et on pense que cette machine va tourner jusqu'en 2030. Donc vous voyez, quand je disais une stratégie à long terme, qui associe des 10 000 chercheurs du monde entier, c'est quand même tout à fait énorme. 4 grands détecteurs autour de cette machine qui fait 27 km de circonférence. Il faut bien voir que cette machine est refroidie à l'hélium superfluide, à 1,9 k. C'est une température plus basse que tout ce qu'il y a dans l'univers, pratiquement. Les protons tournent dans un tube à vide, un vide qui est plus poussé que ce qu'il y a entre la Terre et la Lune. Et on fabrique des collisions, qui sont des collisions les plus chaudes qu'on arrive à faire actuellement. C'est les points les plus chauds qui existent dans l'univers. Il y a la guerre que le Big Bang, qui a été un point plus chaud que celui que l'on fait actuellement. Donc c'est un peu un contraste des extrêmes. Donc les détecteurs sont des énormes détecteurs qui vont regarder les particules qui émergent de ces collisions proton-proton ou bien plan-plan. Quatre grands détecteurs qui ont la taille de cathédrale. Ici vous pouvez deviner la taille d'une personne. Deux Atlas, CCMS, qui sont à deux points diamètre allemands opposés, qui ont découvert le boson de l'Ix, et qui cherchent les nouvelles particules, notamment les particules supersimétriques. LHCB, qui cherche désespérément la différence entre les particules et les antiparticules pour essayer de comprendre si une piste pour expliquer pourquoi l'antimatter a disparu dans l'univers. Et Alice, qui étudie les collisions plomplons pour voir quelle est la nature du plasma de quark et de gluon que l'on arrive à faire en en mettant ensemble tous les quarks et gluons des 200 protons et neutrons d'un noyau de plomb et des 200 de l'autre noyau de plomb qui rentrent en collision. Quand je disais la taille d'une cathédrale, là où vous voyez la personne, ça c'est l'intérieur du détecteur d'Atlas avant qu'il soit complètement rempli. Ça c'était au moment de l'assemblage. Quand je disais qu'on faisait des mini Big Bang en laboratoire, donc ça c'était les premières collisions proton-proton en mars 2010 avec des milliers de particules qui émergent de ces collisions proton-proton. Vous voyez l'enthousiasme, donc c'est des gens, lors des premières collisions, ça c'est dans l'expérience Atlas, c'est émerveillez-vous, c'est le slogan que l'on a l'habitude de dire au cerne par rapport à indigner-vous, c'est ici, c'est émerveillez-vous. Voilà, donc une des premières découvertes, donc à l'estée dans les collisions plomplons, vous voyez les collisions proton-proton, elles se voient visuellement par le fait qu'un proton est fait d'un autre trois quarks, qu'un autre de trois quarks, ils arrivent donc comme ça, vu dans le plan transvers, s'ils sont dans le tube à faisceau. Il y a un des quarks qui va taper contre un autre quark et qui va être réjecté à grand angle, comme deux boules de billard qui se tapent l'une dans l'autre, et ce quark se réhabille en un tas de particules parce que les quarks n'existent pas à l'état libre, et donc ça donne des milliers de particules dans un sens, des milliers dans l'autre, qui sont opposés dans le plan perpendiculaire au faisceau, et donc ça apparaît quand on fait un diagramme étafi dans les deux coordonnées qui sont là, comme deux jets de particules opposés. Et bien la surprise, ça a été que dans les collisions plomplons, on se serait attendu, donc là vous avez un oreillot de plomb qui vient rencontrer un oreillot de plomb, un autre noyau de plomb, donc les protons et les neutrons sont déstabilisés, les quarks et les gluons se mettent ensemble, on s'attendra à voir là aussi deux quarks qui tapent l'un sur l'autre et qui donnent deux jets, et bien de temps en temps on voit qu'un seul jet et l'autre a été complètement absorbé par cet état de la matière fabriquée de quarks et de gluons composés de tous les quarks des deux noyaux de plomb, et on l'interprète par le fait que la collision a dû avoir lieu sur la périphérie, un des quarks a pu ressortir, et l'autre a été absorbé par un état, un nouvel état de la matière très très dense, qui laisse pas passer les quarks à travers, et qui sont complètement absorbés et ressortent dans tous les sens. Et cet état a été étudié ensuite, ça c'était Atlas qui l'a observé, a été étudié par Alice en détail, on a pu montrer que c'était un phénomène de fusion, un peu comme les protons et les neutrons des deux noyaux qui fusionnent l'un dans l'autre et qui donnent ce plasma de quarks et de gluons, et on a même pu observer le flash de cet état très chaud, qui est un flash yoctosconde, alors pour ceux qui connaissent, il y a la picosconde, la femtosconde, 10.15 secondes, la tosconde, 10.18, zeptosconde, c'est 10.21, et yoctosconde, c'est 10.24 secondes. C'est un flash dont on a pu voir les gammas, yoctosconde, en fait c'est 10 yoctoscondes, 10.23 secondes. C'est le flash le plus bref qu'on n'est jamais vu jusqu'à présent. Donc ça c'était quand même une grande découverte, donc ça c'était fin 2010, après il a fallu attendre le 4 juillet 2012, on l'a vu apparaître petit à petit, la découverte du boson de l'Higgs, donc c'est cette nouvelle particule qui joue un rôle essentiel pour conférer même une masse à toutes les autres particules. Cette particule d'ailleurs n'y a ni un spin en demi, ni un spin en 1, j'avais dit que les particules qu'on connaissait c'étaient les particules de matière, spin en demi, les particules de force spin 1, celle-là elle a un spin 0, c'est ce qu'on appelle un scalaire, donc elle est vraiment très particulière dans le monde des particules élémentaires. Donc elle est apparue dans les très fugitives, elles se désintégrent, on l'attendait dans les modes gamma-gama et également ZZ, Z c'est les particules des bosons intermédiaires, et effectivement c'est dans ces modes qu'on l'a vu. Voilà, une des collisions dans lesquelles il y a deux gamma, et ça c'est dans CMS, et lorsqu'on fait le spectre en masse gamma-gama, on voit un pic qui apparaît ici, ça c'est du bruit de fond, qu'on peut interpréter très bien, on le reproduit, le bruit de fond, mais là on a un pic qui vient se surimposer, sur lequel il y a un zoom qui a été fait, et qui est un pic très significatif, donc on a pu montrer que la probabilité que le bruit de fond a 126 gèves, donc ça c'est vu par atlas, c'est le même pic qui était vu, la probabilité que le bruit de fond puisse simuler à un tel signal, elle est de l'ordre de 1 sur un milliard, donc on a bien, dans deux expériences différentes, dans ce canal de la gamma-gama, mais également dans le canal ZZ, on a vu également le ZZ, deux canaux différents, deux expériences différentes, ça ça a convaincu qu'on avait bien découvert une nouvelle particule, et qui semble, par ces modes de désintégration, avoir toutes les propriétés attendues du boson de VIX. Le séminaire a eu lieu le 4 juillet, donc 2012, au cerne à 9h du matin, moi j'étais là-bas, je peux vous dire que déjà la veille au soir, il y avait des jeunes un peu comme vous, qui commençaient à faire la cul pour entrer dans l'auditorium, parce qu'ils savaient que l'auditorium serait trop petit pour contenir tout le monde, et même si on avait fait des salles un peu comme ici, mais finalement on n'a pas eu besoin, mais des salles qui retransmettaient le séminaire, mais ils voulaient tous rentrer dans la salle principale, c'était webcasté dans le monde entier, et le matin, il y avait une queue de 500 mètres à 1 km, donc c'était vraiment comme un concert de rockstar. Alors ça a été retransmis, il y avait une salle où il y avait des journalistes, des journalistes du monde entier, ça a été retransmis dans toute l'après et la télévision du monde entier, ça a été assez incroyable, c'est-à-dire qu'il y a un écho, on estime qu'il n'y a eu pas loin de 1 milliard de personnes qui ont été exposées d'une manière ou d'une autre à la découverte du Boson de Higgs. D'ailleurs lorsqu'on interroge, on a fait un micro-croçoire, il n'y a pas très longtemps, est-ce que vous avez entendu parler du Boson de Higgs ? Vous vous, on l'a entendu parler, c'est là où ça va plus vite que la vitesse de la lumière, ils ont mélangé avec les neutrinos, mais ça c'est pas bien grave, mais ils avaient entendu parler du Boson de Higgs et du CERN. Donc voilà, ça a été très... Donc ça montre quand même le fait que les médias et que les gens ont entendu parler et qu'ils sont intéressés par ça, je fais que vous soyez nombreux dans la salle, ça montre qu'il y a quand même une appétence pour essayer d'avancer mieux comprendre de quoi en effet, d'où on vient, c'est des questions fondamentales, comprendre la matière, comprendre les secrets du Big Bang. Il n'y a pas que l'économie, que le matériel qui intéresse les gens, ça a été relaté en Inde, ça a été relaté dans tous les pays, extrêmement... et vraiment en première des journaux télévisés. Et on a été surpris nous-mêmes, on avait bien sûr communiqué, mais on ne s'attendait pas à un tel écho médiatique, alors que c'est extrêmement difficile à comprendre. Ce que je vous ai dit, c'est quand même des termes qui ne sont pas faciles à comprendre pour le grand public, et malgré tout, on sent qu'il y a une appétence pour que même s'ils ne le comprennent pas et qu'il y ait des gens qui continuent à poursuivre ces recherches pour mieux comprendre ce qu'on est, ça fascine le grand public et je pense que c'est quand même réconfortant. Donc encore une fois, une manière de le décrire, donc comme je vous l'ai dit, c'est de parler du vide quantique qui est plein de particules virtuelles non détectables, qu'on appelle les fluctuations quantiques, et ces particules virtuelles introduisent une viscosité du vig, du vide, et notamment ces particules virtuelles de X, du boson de X, là, on les a créées de manière réelle au CERN, et on les a vus, mais dans le vide quantique, elles interviennent de manière virtuelle, et elles créent une symétrie spontanément brisée. C'est ce fameux chapeau mexicain pour ceux qui ont regardé, qui connaissent un peu la supraconductivité. C'est le même phénomène qui a en supraconductivité. Donc lorsque l'univers était plus chaud ou plus dense, tout était symétrique par rapport à cet axe, et il y a un moment où l'état du vide quantique ne reproduit plus cette symétrie par rapport à cet axe. Il tombe dans un trou qui est lié à ce chapeau mexicain, même s'il aurait pu tomber n'importe où. C'est ça qui est rémanaisant, qui peut nous rappeler, la symétrie originale. Il tombe quelque part, un peu comme un bâton sur lequel vous appuyez, un moment... Donc, tout est symétrique par rotation, mais à un moment, il flambe, et il va s'incurver avec quelque part dans une direction. Vous avez perdu la symétrie de rotation du départ. Sauf que si vous répétez l'expérience un grand nombre de fois, il va prendre toutes les directions possibles imaginables. Nous, on ne peut pas répéter l'expérience un grand nombre de fois parce qu'on n'a qu'un seul univers. Donc, ça pose la question de savoir s'il n'y a pas d'autres bulles ailleurs ou le vide quantique, éventuellement, aurait des propriétés légèrement différentes de ce qu'il a dans la partie que l'on peut observer. Il reste encore à vérifier que c'est vraiment le boson de l'Ix prédit par le modèle standard. Ce qu'on prévoit, c'est qu'il doit se désintégrer plus la particule est lourde, plus s'il aime bien se désintégrer dans cette particule-là. Donc, actuellement, on a regardé un petit peu les modes de désintégration. On a des grandes barre d'erreurs par rapport à cette ligne droite qui devrait suivre. C'est pour ça qu'on veut tourner jusqu'en 2030 où là, par rapport à la masse, on pourra regarder vraiment si son couplage, ce qu'on appelle les diagrammes de Feynman, obéisse à cette relation de linearité. Mais il nous reste encore une deuxième grande question qui est liée à cette fameuse supersymmétrie et à ce problème du hasard et de la nécessité. C'est quand même un peu étonnant qu'il ait une masse aussi légère. A 126 gèves, effectivement, le modèle standard peut s'extrapoler sans difficulté jusqu'à l'échelle de Planck. Il ne pose pas de problème essentiel. On pourrait dire qu'on a la théorie jusqu'à là où on ne peut plus aller parce qu'il faut faire appel à la gravitation. Mais malgré tout, cette masse légère du boson de l'Ix, à l'intérieur du modèle standard, on n'arrive pas à comprendre pourquoi elle est si faible. Normalement, lorsqu'on calcule les ordres successifs parce que le modèle standard permet de calculer aussi la masse du boson de l'Ix et en principe, on s'aperçoit qu'elle devrait diverger et étendre vers 10 puissance 15 gèves ou 19 gèves, sauf s'il existe une supersymmétrie, c'est-à-dire que lorsqu'on fait les calculs, il y a des boucles de nouvelles particules qui viennent compenser les valeurs que l'on calcule avec les particules que l'on connaît. On s'attendrait pour que la masse du boson de l'Ix soit si faible, qu'il y ait des boucles de nouvelles particules, des particules supersymmétriques, qui permettent de compenser et d'éviter que cette masse diverge. On a vraiment besoin de cette supersymmétrie pour expliquer pourquoi la masse est si faible et elle n'est pas de l'ordre de 10 puissance 19 gèves, qui est la seule échelle naturelle que l'on peut fabriquer avec les constantes h, c et g. Sauf s'il y a effectivement une supersymmétrie qui est presque exacte, mais pas tout à fait exacte, et qui vient compenser et permettre d'arriver à des quantités beaucoup plus petites que 10 puissance 15 gèves ou 19 gèves. Pour l'instant, il n'y a pas de signe de cette nouvelle physique. Donc la question se pose, est-ce qu'on a effectivement une loi à la supersymmétrie qui explique pourquoi la masse du boson de l'Ix est si faible ou bien est-ce que c'est le hasard et qu'il a juste cette valeur-là parce que sinon, l'univers n'aurait pas su l'histoire que l'on connait et on ne serait pas là pour en parler. Et donc, pour l'instant, on n'a pas trouvé. Ceci dit, on voudrait attendre au moins la deuxième étape du LH où on va doubler l'énergie du LH, avant de dire, si on bascule plutôt du côté de ce qu'on appelle le fine tuning, c'est le terme en anglais qui plus ou moins veut dire le hasard, ou bien, est-ce qu'on va découvrir cette loi qui nous expliquera tout. La supersymmétrie qui est d'ailleurs une nécessité pour aller vers la grande unification et vers les supercordes des théories d'invitation quantiques. Voilà, donc ça, c'est un exposé qui voudra, c'est un petit peu la science que l'on fait aux CERN avant de rentrer dans des considérations plus politiques. Le CERN fait visiter les installations, le LH, maintenant, je crois qu'il y a 85 000 visiteurs cette année. Il y en avait 75 000 l'année dernière, 95 000 cette année. Il y a des enfants qui viennent des classes primaires et après, donc on leur raconte un peu ce baratin-là et on leur dit, faites-nous un dessin, qu'est-ce que c'est qu'un physicien, faites-nous un dessin et dites-nous qu'est-ce que c'est qu'un physicien. Alors voilà, on en a des milliers comme ça, c'est sur un site web www.dissidemoi-inficien.cern.search. Donc voilà, un dessin, un physicien fait des milliers de calculs et cherche ce qu'il y a après l'espace. C'est pas mal, non, je trouve, comme l'interprétation. Un physicien cherche le pourquoi du pourquoi, c'est encore mieux. Et donc maintenant, j'en arrivais. Donc quand même, qu'est-ce que c'est que le CERN et à regarder un peu le côté géopolitique et détailler un peu ce côté qui a rassemblé des pays du monde entier et faire une recherche ouverte, contribuer à former, éduquer, communiquer et également innover. Donc le CERN est né dans les années 50. Il a été l'objet d'une convention qui a été, c'est un traité, qui a été donc signé par les chefs d'État et ratifié par les parlements et dans lequel, un peu comme l'Union Européenne, dans lequel, réellement, c'est les gens qui avaient mis ce traité, qui étaient à la fois des diplomates et des scientifiques, avaient vraiment une vision du CERN qui s'est réalisée petit à petit et une vision du CERN a plus de 50 ans, puisqu'on en est pratiquement que maintenant, on commence à avoir réalisé cette vision. Alors, il y avait bien sûr l'aspect recherche. Dans l'aspect recherche, c'était reconstruire après la dévastation de la guerre et la fuite des cerveaux européens vers les États-Unis ou bien vers l'URSS, redonner à l'Europe la capacité de s'unir dans une physique qui demandait de mettre ensemble des moyens pour rivaliser à nouveau avec les États-Unis et avec l'URSS de l'époque. Alors, ça, je crois qu'on l'a fait puisque maintenant, le CERN d'une part a compit cette mission de repousser les frontières de la connaissance avec les secrets de la matière, les secrets du Big Bang et le LH est une machine qui est devenue une machine européenne à vocation mondiale, puisque la planète entière vient s'y travailler et c'est la machine phare en matière de frontières en énergie et de densité. Il n'y a pas d'équivalent maintenant dans le reste du monde. Les Américains pratiquement ont abandonné avec leur dernière machine qui s'est arrêté dès que le LH a démarré et ils viennent travailler au CERN. Bon, l'URSS a eu d'autres problèmes depuis et n'a plus l'ambition de rivaliser. Le Japon travaille aussi au CERN et la Chine, pour l'instant, même si elle a des ambitions, elle n'a pas encore la capacité de faire une machine chez elle et de rassembler la planète entière sur son territoire. Donc, le CERN effectivement a réalisé cette mission scientifique et maintenant n'a seulement rattrapé les États-Unis et l'Asie mais est en tête sur ce plan-là au niveau mondial. Ça ne veut pas dire que ça le sera pour toujours, mais actuellement, pour encore jusqu'à 2030, je pense qu'on va continuer à l'être. C'est la capitale mondiale de la physique des particules. Développer de nouvelles technologies, eh bien, c'était dans l'émission du CERN et il est développé de manière ouverte et gratuite. C'est au CERN que le web est né et la phase du monde aurait été différente si le web avait été brefté par Juliette Packard qui était sur le point de le brefter. Le CERN, pour ses besoins de collaboration mondiale, a inventé ce CERN qui a été inventé le web, qu'on communiquait entre les physiciens et l'a rendu public et c'est grâce à ça que le web est gratuit. Ce qui n'empêche pas d'ailleurs de faire du business qui a contribué à un croissant dans le monde à travers le web, mais ça a permis à tous les pays d'accéder à l'information de manière gratuite. Les accélérateurs ont été un moyen aussi de faire avancer le médical, la lumière synchrotron qui a été inventée avec les accélérateurs de particules. C'est maintenant à imager la matière. L'imagerie des images de particules ont trouvé leur expression dans l'imagerie médicale aussi et également pour imager la matière. Je reviendrai là-dessus. Former les scientifiques et les ingénieurs de demain, je vous ai dit déjà de ne se risque à travers la communication en faisant visiter le CERN à 100 000 personnes par an et en formant les profs qui viennent aussi au CERN de tous les pays. Je vais revenir. Le CERN a contribué parfaitement à cette mission-là. Et enfin, science pour la paix, rassembler des personnes de différentes nations et de cultures. Et donc je vais terminer mon exposé avec quelques planches sur ces thèmes-là. Donc, comme je vous l'ai dit, le savoir-faire, c'est les accélérateurs. C'est le traitement des données, des millions de milliards de collisions dans lequel il y a des millions de pixels à chaque fois qui sont touchés. Et ces images, c'est sale que le créneau du CERN. Donc maintenant, par exemple, les accélérateurs sont de plus en plus utilisés dans la médecine pour détruire des tumeurs. Donc avec des faisceaux de carbone, notamment, on arrive à faire arrêter le faisceau au milieu du cerveau sur une tumeur que l'on a imagée et qui fait peut-être quelques millimètres cubes. On est capable de déposer toute l'énergie dedans et de détruire cette tumeur sans irradié le reste du cerveau ni le reste du corps à forcierie. Et c'est en train de se développer de plus en plus. Également dans les yeux, pour des tumeurs dans les yeux. La détection, donc, les imageries des particules permettent de faire maintenant des images remarquables du point de vue médical, qui permettent avec des doses de plus en plus faibles de faire des images du corps et notamment de détecter des tumeurs qui peuvent ensuite être combinées avec les accélérateurs pour être détruites. Et puis, donc, le traitement des données. Donc, comme je l'ai dit, le web, les logiciels libres. Le CERN est en tête. C'est lui qui assure un peu la maintenance des logiciels libres. C'est aussi une méthode pour faire avancer de manière collaborative des logiciels, ce qui n'empêche pas des entreprises d'utiliser ces logiciels et de faire du business avec. Mais c'est une autre approche aux logiciels. Publications gratuites. Le CERN a négocié avec les éditeurs le soin et leur fournir les moyens de faire leur travail pour analyser les publications qui sortent du LH. Mais ensuite, les publications sont mises sur le web et sont d'accès gratuit pour toutes les universités du monde entier, qu'elles soient en Inde ou qu'elles soient aux États-Unis. La grille de calcul pour traiter toutes ces données qui viennent du LH. Et bien, le CERN a fait une espèce de toile qui est constituée de tous les utilisateurs du monde entier, que ce soit des très gros ordinateurs au CERN ou aux États-Unis ou en Europe, ou bien des PC sur les bureaux des utilisateurs. Tout ça fait un gigantesque ordinateur. L'accès est libre. Encore une fois que vous soyez en Inde ou aux États-Unis, vous avez la même puissance de calcul. Vous avez accès à toutes ces données. C'est transparent pour l'utilisateur. Il ne sait pas où le calcul se fait, où sont les données. Et ça permet à chacun d'exprimer le meilleur de lui-même sans avoir à se limiter du point de vue calcul ou du point de vue donné. Vous voyez que c'est des outils collaboratifs mondiaux qui sont quand même assez innovants et encore une fois dans un esprit de partage. C'est un peu à chacun ce que l'on s'est besoin. Maintenant, c'est plutôt à la mode, mais le CERN est peut-être le dernier endroit où cette politique se fait de manière très généreuse et d'accès égale partout. Activité de formation. Les programmes d'étudiant d'été rassemblent des étudiants de partout au point que maintenant on a au CERN, à la fois des étudiants palestinien, des étudiants israéliens, des étudiants iraniens et des étudiants pakistanais. Donc ça, c'est quand même assez remarquable. C'est un multi-pot extraordinaire. Des profs de physique qui viennent tour à tour de leur pays et à qui on fait l'enseignement dans leur langue et qui ensuite peuvent revenir dans leur lycée. Vous avez une carte ici des pays qui envoient des profs au CERN ou bien des étudiants d'été. Je vais revenir sur cette carte au sens de l'organisation. Donc le CERN, voilà comment les pays sont connectés au CERN. Le CERN a été fondé en 1954. Il y avait 12 états membres. Maintenant, il y a 20 états membres. Ce sont ces états qui sont marqués ici. Ce sont essentiellement des états européens, mais cette ouverture européenne se fait de plus en plus large. Voilà les états qui sont actuellement en accession, en train de monter vers l'accession. Chypre, la Roumanie, l'Israël, qui est quand même un confin de l'Europe. Serbis, Slovenie. On a un deuxième cercle qui s'appelle les états associés. Donc ça, les états membres mettent au pot commun. Ils contribuent à la hauteur de leurs richesses intérieures brutes. Ils définissent la stratégie. C'est eux qui ramassent les contrats et les positions permanentes au CERN. Mais les membres associés contribuent à 10 % de ce qui contribuerait s'ils étaient membres. Ils peuvent recevoir aussi certains contrats et avoir certains postes, mais ils n'ont pas le droit de vote. On voit apparaître maintenant le Brésil, l'Inde, la Russie, la Turquie et l'Ukraine. Et puis, on a les étapes qui sont dit observateurs au Conseil. C'est-à-dire ceux qui ont contribué au LHC à la machine, mais qui ne contribuent pas au pot commun général. Et enfin, on a tous les utilisateurs des expériences qui ont des accords de coopération avec le CERN. Le budget est de l'ordre d'un milliard d'euros pratiquement par an. 10 000 utilisateurs, 2 000 membres permanents et 1 000 qui sont temporaires. Vous voyez ici sur la carte comment le monde est connecté au CERN. En blanc, c'est ceux qui ont une connexion avec le CERN. Malheureusement, c'est l'Afrique, essentiellement. En rouge, ceux qui ne participent qu'aux expériences du CERN, essentiellement les utilisateurs, qui envoient des utilisateurs qui ont des accords de coopération. En vert, ceux qui ont contribué en plus des expériences qui ont contribué à la machine LHC et qui viennent aux sessions du CERN, lorsqu'on parle du LHC, aux sessions du Conseil du CERN. Et en bleu, les étapes membres. Maintenant, on va avoir des étapes associés qui vont apparaître très bientôt, qui sont le Brésil, la Russie, l'Inde, l'Ukraine. Vous voyez que les États-Unis envoient plus d'utilisateurs. Les États-Unis, c'est 1700, que la France, elle-même, qu'un envoi que 800. Ceci dit, la France a la particularité d'avoir la moitié du personnel permanent des Français. Donc, évidemment, on est très bien représentés sur la frontière franco-suisse. Donc, c'est pas étonnant qu'on soit très présents. Et donc, je vais terminer avec cette planche, en disant que c'est la plus grande aventure scientifique mondialisée, l'HLHC. Ca correspond à une quête de l'humanité, comme je l'ai dit, de quoi en effet, d'où on vient. Basé sur un rationalisme collectif, c'est plutôt rassurant, et des valeurs communes. On a réussi, et on va terminer ça, d'ailleurs, au prochain Conseil du CERN la semaine prochaine, à faire admettre un code de conduite à tout le monde, qui soit, donc, encore une fois, d'Inde, de Pakistan, de l'Iran, d'Israël, d'Arabie Saoudite, l'Arabie Saoudite, c'était là. Code qui est donc basé sur cinq valeurs principales, qui sont l'intégrité, le professionnalisme, l'engagement, la créativité et la diversité. Et donc, je trouve que c'est quand même pas rien, de rassembler autour du rationalisme avec un code de valeur partagée, chaque utilisateur signe ce code de conduite, rassemble par-delà des différences religieuses ou citoyenneté. Donc, comme je vous l'ai dit, derrière des questions philosophiques, les interférences entre, enfin, les subtilités entre hasard, les fluctuations quantiques, les brisures de symétrie, les nécessités, les lois, les théories effectives, l'émergence d'un emboîtement de structure et de loi, ce chapeau mexicain, là, qui est intrigant, et encore du chemin, mais de nombreux rendez-fous. Je suis en train d'écrire un livre qui s'appelle « Le boson et le chapeau mexicain ». Voilà, et merci beaucoup, donc. Bonsoir. Je voulais simplement savoir si, au cerf, on cherche toujours le graviton. Alors, le graviton, c'est... On ne cherche pas directement la particule, le graviton. Ce qu'on cherche, c'est les ondes gravitationnelles. Vous savez que, avant qu'on ait trouvé le photon, on avait d'abord trouvé les ondes artiennes, qui étaient la traduction de l'unification électromagnétique, de Maxwell. Et ensuite, on a trouvé le photon plus tard. Actuellement, on en est encore à chercher l'équivalent des ondes artiennes pour les ondes électromagnétiques, pour la gravitation. C'est ce qu'on appelle les ondes gravitationnelles qui sont prévues par la théorie de Dunstein, dans lesquelles on s'attend à ce que, lorsqu'il y a un phénomène cataclysmique dans l'univers, il y a une onde gravitationnelle qui se propage, qu'on peut essayer de détecter sur Terre et qui se traduit par un changement de la métrique de l'espace et du temps. Ce qu'on fait, c'est qu'on fait un gigantesque... Ce n'est pas au cercle que ça se passe. C'est en Italie, Virgo, qu'on fait un interféromètre de Michelson. C'est-à-dire deux lasers de trois kilomètres, deux fessaux lasers de trois kilomètres, qui se réfléchissent à une fois... Ça fait des centaines de milliers de kilomètres qui parcourent. Ensuite, on les fait interférer. Ils sont perpendiculaires l'un à l'autre, les deux lasers. On s'attend à ce qu'une onde gravitationnelle va jouer un peu différemment sur la distance entre les deux miroirs qui réfléchissent les fessaux lasers d'un des lasers par rapport à l'autre qui est perpendiculaire. Ça va faire bouger la figure d'interférence. Pour l'instant, on n'a pas vu encore cette onde gravitationnelle passée. Il y a également des antennes pareilles aux États-Unis. Ils sont en train d'améliorer la sensibilité et on prévoit qu'ils devraient observer ça dans les années qui viennent. Le phénomène cataclysmy qui déclenche ça, c'est la coalescence de deux étoiles à neutrons formant un trou noir. Ce trou noir se forme. Les deux étoiles à neutrons perdent de l'énergie par rayonnement gravitationnel, tombent l'une sur l'autre et, dans les 20 mètres derrière, il y a une puissance dégagée sous forme de dons gravitationnels qui, si théories sont justes et si le taux de production de cet événement sont correctes, et bien normalement, Virgo et Ligo, Virgo en Europe et Ligo aux États-Unis, devraient observer ça jusqu'à une distance de 100 mètres par sec. Donc, tout l'âme de la Vierge. Et donc, on devra avoir un événement comme ça par an. Il faut attendre qu'ils atteignent ce qu'on appelle Advanced Virgo et Advanced Ligo, c'est-à-dire d'ici un an ou deux. J'aurais voulu savoir pourquoi vous les utilisez du plomb pour faire des collisions de plombs plombs les bas de la vision. Alors, pourquoi on fait plomb plomb ? Avec le plomb, d'abord, la température de fusion du plomb est assez basse, comme vous savez. Donc, on arrive à faire des vapeurs de plomb et ensuite, le plomb se prôte bien à éplucher le plomb complètement. C'est-à-dire, on enlève tous les électrons de manière à bénéficier complètement de la charge pour pouvoir les accélérer à un maximum dans l'anneau. Et c'est le plus facile, évidemment, on cherchait à prendre des ions lourds pour pouvoir faire un plasma de coquet de gluons. C'était le plus facile à réaliser techniquement. C'est uniquement pour ça. Maintenant, on est en train d'essayer de faire des collisions or-or, mais c'est plus difficile. Parce qu'on voudrait voir... Je vous ai dit qu'on arrivait à avoir un nouvel état de la matière en plomb-plomb, qu'on n'a pas en proton-proton, cet état de plasma de coquet de gluons, qui est un état très dense. Et donc, on voudrait voir à partir de quel moment il se forme, notamment si, en prenant d'autres ions, il y a argon-argon qu'on vise aussi, etc. Pour l'instant, on ne sait faire que proton-proton et plomb-plomb, c'est purement technique, c'est les vapeurs de plomb et l'ionisation du plomb. L'ionisation du plomb, les plus charges complets du plomb. Une question peut-être pour toutes les W-détection, par exemple, pour les neutrinos qu'on a scampé, pour les détecteurs neutrinos, qu'on crée et ça va, par exemple, c'est ce neutrinos-là qui est parti de l'emploi et qui est arrivé à tel moment. Pour l'expérience des neutrinos qui partent du cerne vers le grand sasso, les détecteurs, donc, détectent des interactions qui voient dans le grand sasso. Effectivement, il y a des rayons cosmus qui tombent dans les détecteurs. Il faut qu'ils laissent séparer des neutrinos qui viennent du cerne. Mais le faisceau de protons du SPS, quand il tape sur une cible et qui fabrique des neutrinos, il est pulsé. C'est-à-dire que c'est toutes les 10 microsecondes. Il y a un bouffet de protons qui dure quelques nanosecondes qui vient frapper sur la cible. On connaît le temps exact au moment où les protons frappent sur la cible et donc le moment où les neutrinos sont émis. On fait une coïncidence à ce moment-là avec les détecteurs au grand sasso. Ce qu'on s'aperçoit, c'est que les détecteurs enrégissent des collisions de rayons cosmis qui sont uniformes dans le temps. Mais en synchronisation avec le SPS du cerne, il voit un excès d'événement qui tombe juste au temps qui est attendu pour des neutrinos qui voyagent la vitesse de la lumière puisque finalement ils voyagent la vitesse de la lumière entre le cerne et le grand sasso. Donc c'est la coïncidence temporelle décalée par le temps que mettent les neutrinos pour arriver du cerne au grand sasso qui permet de dire que c'est bien des neutrinos qu'on a vus du cerne à ce moment-là parce qu'il y a un pic juste à ce moment-là. Le trouble qu'il y avait eu, c'est que les gens disaient on voit bien une coïncidence mais elle arrive des 10 nanosecondes avant que ce qu'on attendrait. C'était ça qui avait déclenché. Les neutrinos vont plus vite que la vitesse de la lumière. Ils voyagaient arriver 60 nanos, je crois, avant ce qu'on attendait. Et finalement, c'était un câble qui était mal connecté. Vous voyez que la grande physique, des fois, elle peut buter sur des choses presque triviales. Bonjour, Jérôme Savard. En fait, vous avez dit que les quarks AP et DAM constituent des protons et des neutrons, mais à quoi servent les autres quarks? Et j'avais une autre petite question. Est-ce que vous pourriez nous expliquer brièvement le principe de la théorie des cordes et de la gravitation? Je vais commencer par la première question. C'est une grande question pour laquelle on n'a pas encore vraiment la réponse. C'est vrai que la matière ordinaire, on a besoin que des électrons, des quarks Q&A, à la limite, on peut dire qu'on a besoin d'une autre INOE, parce qu'on a une interaction faible qui est nécessaire pour expliquer, par exemple, la fusion thermonucléaire de l'hydrogène dans le soleil. Donc avec ça, la première famille, c'est la première famille, c'est la première famille, c'est la fusion thermonucléaire de l'hydrogène dans le soleil. Donc avec ça, la première famille UED, de quarks et puis électrons et neutrinoe, on explique toute la matière stable. Or, on a trois familles qui sont une répétition de la première, mais simplement, ils sont plus lourds. À chaque fois, la deuxième famille est plus lourde, et la troisième famille est encore plus lourde. Et donc, c'est une des grandes questions, c'est de savoir pourquoi il n'y en a pas qu'une seule famille et pourquoi il y en a trois et pas plus. Apparemment, il n'y en a pas plus. Alors, pourquoi il y en a plus? Alors, il y a une interprétation, c'est de... Il n'y a pas vraiment de réponse encore aujourd'hui, pourquoi il y en a trois. Mais ce qu'on peut dire, c'est que les quarks ne sont pas... C'est ce que j'ai laissé entendre avec les neutrinos. En fait, les quarks et les neutrinos d'une famille ne sont pas les états propres, pour ceux qui ont fait de la mécanique quantique, de l'interaction faible ou bien de l'interaction forte. Il y a ce qu'on appelle des mélanges lorsqu'on les laisse se propager dans le vide. On part d'un neutrino, qui a été produit comme un état de l'interaction faible, lorsqu'il se propage, il va développer des composantes des autres états de neutrinos. De la même manière, les quarks, ils ont tendance à se mélanger, vous produisez un quark d'un certain type, il a tendance à développer avec le temps des quarks d'autres espèces. Et donc ce phénomène d'oscillation, un peu comme les phénomènes à deux états en mécanique quantique, ce phénomène d'oscillation d'un état à un autre permet d'expliquer pourquoi on voit des légères différences, parce qu'on en voit quand même entre les particules et les antiparticules. Par exemple, on voit des différences entre le comportement des quarks B et des anti-quarks B, qui sont des quarks lourds. Et ça, ça peut se comprendre qu'il faut pour avoir ça, pour pouvoir le décrire dans le cadre du modèle standard, il faut qu'il y ait au moins trois familles pour qu'on ait une espèce de matrice 3-3 qui recoupe, qui connecte les états à l'un ou l'autre. Et il faut qu'il y ait une phase dans cette matrice, c'est-à-dire qu'elle soit complexe. Et à ce moment-là, les opérations de conjugation de charge de parité permettent d'expliquer pourquoi on voit des petites différences entre quarks et anti-quarks. Alors évidemment, l'espoir qu'on avait, c'était que cette petite différence expliquerait pourquoi la matière subsiste dans l'univers et pourquoi on n'a pas d'antimatière dans l'univers. Malheureusement, on n'arrive pas à faire ce chemin complet depuis l'existence de ces trois familles, les différences entre quarks et anti-quarks, et le fait qu'on n'a pas d'antimatière dans l'univers. On n'est pas arrivé à boucler la boucle et on n'arrive pas dans un scénario cosmologique cohérent à expliquer pourquoi l'antimatière a disparu. Mais en tout cas, on a une piste, il faut au moins trois états de quarks, trois familles, pour pouvoir expliquer ce qu'on appelle la violation de CP, c'est-à-dire la différence entre particules et anti-particules. Alors la question sur les corps, donc, en gros, comme je vous l'ai dit, le mur de l'ignorance, c'est lorsqu'on atteint des échelles d'énergie de disparissance 19 gèves ou bien des longueurs de 10,32 cm, c'est les longueurs et les échelles d'énergie que vous pouvez fabriquer avec les trois constantes fondamentales, petit hache, la constante de planques, c'est la vitesse de la lumière et j'ai la constante de gravitation. C'est là où, en principe, on est obligés d'avoir à faire une gravité quantique. Et donc, les gens, même si on n'a pas actuellement de moyens de tester ça, puisque, comme je vous l'ai dit au CERN, on en est qu'à un millier de gèves, c'est pas 10 plus en 19. Donc, on est loin du compte pour pouvoir reproduire des effets expérimentaux. Donc, les effets expérimentaux, ils existent que dans le Big Bang, mais il n'y en a qu'un. Dans les trous noirs, mais pour les voir, c'est pas facile par définition. Dans les trous noirs, effectivement, on s'attend à ce que ces phénomènes aient lieu à ces échelles de planques. Donc, ces théories sont un peu des spéculations, puisqu'il n'y a pas moyen de les vérifier expérimentalement. Mais, en moins, il y a un moment, il y avait l'idée que, mathématiquement, il n'y avait qu'une seule voie pour arriver à faire cette unification, ce qu'on appelait la théorie des supercordes, et on pensait avoir découvert la théorie de tout, parce qu'elle était unique d'un point de vue mathématique. Alors, c'était un peu le côté unique qui a entraîné l'adhésion entre les mathématiciens, si je puis lire. Mais depuis, malheureusement, on a montré que ce n'était pas si unique que ça, il y a des variétés, pas l'infini, mais il y a beaucoup de variétés, ça fait appel à des dimensions cachées, et donc, l'unicité de cette théorie a disparu, et donc, maintenant, on est laissé un petit peu à l'abandon, parce que dans cette forêt-là, on ne sait pas très bien comment se diriger, sans test expérimental. Alors, c'était basé sur le fait que les particules, au lieu d'être des points, sont des petites cordes, et ces cordes vibrantes qui donnaient, permettez, d'aller vers une théorie unifiée. Ça reste quand même une piste intéressante. Je vous ai dit qu'une des étapes au moins testables, c'est l'existence de la supersymmétrie, donc la symétrie entre les particules de force et les particules de matière, entre les spins entiers et les spins demi-entiers, que l'on recherche activement ou est lâché, pour l'instant, on n'a trouvé aucune trace. Bonsoir, j'ai deux questions. Est-ce que vous attendez à trouver une autre particule que le boson avec un spin zéro, et est-ce que vous travaillez en collaboration avec Antares à propos des neutrinos ? Bon, alors, c'est deux questions très différentes. Oui, la question du... Est-ce qu'il existe d'autres particules de spin zéro, notamment d'autres bosons de Higgs, dans la théorie de la supersymmétrie, il devrait en exister d'autres. Et donc, on les cherche activement, pour l'instant, dans l'avucin. Et donc, tout colle avec le modèle standard tout nu, sans supersymmétrie. Et comme je vous l'ai dit, en plus, avec une masse de 126 gèves, il peut s'extrapoler quasiment jusqu'à l'énergie de plan, qu'on ne peut pas très loin. Et sauf qu'on ne comprend pas pourquoi ça m'assessit faible, et que pour la seule manière de le comprendre, ça serait d'invoquer la supersymmétrie, qui, elle, deviendrait d'autres bosons de Higgs. Donc, on est dans un circuit, on cherche activement, et on espère que, soit avec plus de collision, mais encore mieux en montant l'énergie, en la doublant, comme on l'espère d'ici 2015. Pour ça, il faut qu'on refasse toutes les soudures. On a un problème actuellement, c'est quand on essaie de monter... Pour pouvoir doubler l'énergie, il faut monter le courant dans les aimants. Qu'ils le tiennent, on les a tous testés avec deux fois plus de courant. Le problème, c'est les soudures entre les aimants. Celles-là, elles ne tiennent pas. Il faut des soudures avec des résistances, d'une anome. Une anome, on ne savait même pas mesurer ça. Il a fallu d'abord inventer la manière de mesurer ses résistances, avant même d'imaginer de pouvoir faire des meilleurs soudures. Et donc, le Hélacé va être arrêté à la fin de cette année, le début de l'année prochaine, pendant 2 ans, pour refaire les 10 000 soudures, qui sont les interconnections entre les aimants. Donc, encore une fois, un but sur des choses qui peuvent paraître votre rivière, mais il y a intérêt à ce que les soudures soient bonnes, parce que sinon, vous savez ce qui se passe, c'est que si la soudure n'est pas bonne, vous perdez la supraconductivité. C'est-à-dire que toute l'énergie magnétique, qui est pratiquement équivalente à plusieurs gigajoules, c'est-à-dire l'énergie d'un TGV en pleine puissance, toute l'énergie va passer en chaleur. Toute cette énergie qui est contenue dans le courant par les champs magnétiques va se transformer en chaleur à cause de si ça devient résistif, c'est-à-dire que vous passez l'état supraconducteur à l'état résistif, et alors là, la crainte que vous n'arriviez pas à l'évacuer est vraiment très sérieuse, c'est-à-dire que vous risquez de faire fondre quasiment la machine. Donc, on a intérêt à avoir une assurance qualité sur ces soudures, ça va nous prendre deux ans. Donc, on va doubler l'énergie en 2015, et donc là, c'est l'espoir, c'est peut-être que la supersimétrie est au coin et qu'on va la trouver à ce moment-là. Sinon, on tombe sur une grande énigme, comme je vous l'ai dit, est-ce que le boson de l'ex à cette masse-là, par hasard, et on est dans ce que l'on appelle le fine tuning, ou bien il y a des lois qu'on n'arrive pas à trouver. On réfléchit déjà aux prochaines machines au-delà du LH, parce que je vous ai dit que le LH avait été conçu en 80, décidé en 94, et les premières collisions en 2010, il va tourner jusqu'à 2030. Donc, si on va assurer un futur au cerne, il faut commencer déjà à réfléchir à quelle machine on voudrait construire après le LH. Et donc, il y a deux optiques, et qui vont dépendre s'il y a des découvertes ou pas. S'il y a des découvertes avec le LH, les collisions Protons-Protons, c'est des collisions un peu Montre-Suisse, Montre-Suisse, puisqu'il y a des croix que des gluons là-dedans, c'est pas des particules élémentaires, les Protons. Et donc, l'idée, c'est que si on trouve des nouvelles particules, à ce moment-là, on voudra les étudier avec précision, faire des collisions, et plus et moins. Et comme les électrons rayonnent beaucoup de lumière et qu'on ne peut plus les accélérer dans des machines circulaires jusqu'au Tev, notamment le LH. On n'arriverait pas à remonter jusqu'au Tev, même avec une machine dix fois plus grande que le LH. A ce moment-là, on ferait un linéaire parallèle au Jura, de 50 km, avec des électrons qui partent d'un côté, les positions de l'autre, ils seront contre-milleux. Il faut qu'on ait des gradients très grands, c'est-à-dire qu'il faut partir de zéro pour monter à un Tev en 25 km. On a les techniques qui commencent à être capables de faire ça. L'autre possibilité, c'est si on trouve des particules qui sont des énergies et qui ne sont pas vraiment inténiables en collision aux électrons positrons, c'est-à-dire plusieurs Tev, ou bien si on ne trouve pas et qu'il faut aller encore plus loin en énergie, évidemment, la méthode, c'est de faire un super LH, enfin, un verri large et un très grand LH, qui fasse 80 km de circonférence, qui passerait sous le lac, sous le petit lac, derrière le salève, pour ceux qui connaissent ma région, sous le Jura, et dans lequel l'HLH, injecterait, donc c'est un peu encore une nouvelle couche qu'on ajouterait, PS, SPS, LH, et Super LH. 80 km de circonférence, on a regardé déjà le génie civil, ça passerait sous la ville de Genève. Bon, autre que c'est peut-être pas plaisant pour les habitants, mais sinon, ça ne fait pas de réalisation. Et le coût n'est pas si grand que ça. Le coût le plus important, c'est évidemment de remplir des mains et de cavité, ce n'est pas le génie civil qui est le coût le plus important. À part le problème d'acceptabilité, qui était toujours un problème délicat. Voilà, donc on réfléchit à ça, et avec l'idée que ça serait en 2018 qu'il faudra décider. Ah oui, Antares, si vous avez posé une question sur Antares, j'ai oublié d'y dire. Alors Antares, donc je vous ai dit que les neutrinos venaient du centre du soleil, venaient des étoiles qui explosaient, des trous noirs qui se formaient, et donc on essaie de faire de l'astronomie des neutrinos. Alors l'astronomie des neutrinos, donc voir des neutrinos énergiques qui arrivent des confins de l'univers, il faut d'abord se protéger de tous les rayons cosmiques qui nous tombent sur la tête, donc il faut des détecteurs gigantesques parce que évidemment les neutrinos interagissent très peu. Alors qu'est-ce qu'on fait ? On va sous la mer, et donc actuellement il y a un détecteur qui s'appelle Antares, qui est au large de Toulon, qui est au fond de la mer Méditerranée à 2000 mètres sous la mer. C'est-à-dire qu'on a 2000 mètres de mer qui nous protège des rayons cosmiques qui nous tombent dessus. Et en fait, pour être encore plus sûr que c'est bien des neutrinos, on regarde des neutrinos qui nous arrivent de l'autre côté, qui viennent de la Nouvelle-Calédonie, comme ça on est tranquille que ce ne sont pas vraiment des rayons cosmiques qui peuvent... Et effectivement ils sont en train de détecter, de les chercher, pour l'instant ils n'en ont pas encore trouvé de neutrinos extraterrestres. On voit des neutrinos, qu'on appelle des neutrinos atmosphériques, mais qui sont toujours liés aux rayons cosmiques qui frappent sur l'atmosphère et qui donnent des neutrinos. Ce qui nous intéresse, c'est les neutrinos qui viennent vraiment du cosmos. Et jusqu'à là, on ne les a pas trouvé. Alors il y en a d'autres qui ont un détecteur encore plus grand. C'est les Américains qui ont mis ça sous la glace de l'Antarctique et qui ont un volume encore plus grand. Et ils prétendent avoir vu quelques neutrinos extragalactiques, mais ils ne sont pas encore très sûrs. Bonjour. La question, c'est comment faites-vous pour différencier les particules symétriques? Et qu'est-ce qui les différencie? Ah, les particules super symétriques. Alors, ce qui les différencie, c'est qu'on s'atteince que la particule super symétrique, la plus légère, soit stable et neutre électriquement, parce que sinon on la verrait autour de nous. Donc on s'atteint à ce qu'elle compose dans la fameuse matière sombre dans l'univers. Donc lorsqu'une particule super symétrique est produite ou est lâchée, elle va se désintégrer en cascade, jusqu'à la particule la plus légère, qui est donc stable, neutre électriquement, qui interagit très peu, parce que sinon on l'aurait vu, c'était toute cette matière noire autour de nous, et donc elle s'échappe du détecteur en faisant de l'énergie qui manque par rapport à l'énergie initiale des deux protons incidents. Donc on a une double signature, une cascade, et qui se termine par de l'énergie qui manque dans l'événement. Et donc c'est quand même très caractéristique de voir ces cascades de particules lourdes les unes dans les autres pour arriver à la particule la plus légère, qui va s'échapper en laissant un bilan énergétique qui montre quelque chose qui s'échappe. Le bruit de fond c'est des neutrinos effectivement, qui sont des particules aussi qui s'échappent sans laisser de trace, mais on arrive à distinguer par rapport à l'autre. Vous nous avez dit que l'énergie phonie au LAC était d'environ 1 tèvre, donc on devrait pouvoir obtenir de la matière noire, mais qu'est-ce qui se passerait lorsqu'on en obtiendrait ? On doit pouvoir fabriquer des particules de matière noire. On pense que la matière noire n'est pas faite de protons et de neutrons. On a un tas de manières de s'en convaincre, ni d'électrons, donc pas de matière ordinaire. Elle est faite de matière qui doit être neutre électriquement, invisible, interagissant très peu, sinon on verrait les interactions. Et donc la manière, comme je l'ai dit, de chercher les particules qui pourraient constituer la matière noire, c'est de chercher des particules qui s'échappent du détecteur sans laisser de traces et qui emportent une grande quantité d'énergie. Donc c'est à travers le bilan énergétique et l'absence de particules associées à la direction dans laquelle, par cette énergie, par cette impulsion manquante, que l'on peut chercher ces particules qui nous échappent. Le bruit de fond étant encore une fois les neutrinos qui ressemblent un peu à ça. Bonjour. Alors ma question, c'est à propos du traité signé pour la création du cerne, donc il avait une fin scientifique, mais également politique. Ce que je voudrais savoir, c'est est-ce que cette fin a eu des incidences sur le cerne par la suite, des incidences politiques, et qui est-ce qu'il y a eu l'idée du cerne ? Alors l'idée du cerne, il y a des scientifiques, il y a Pierre Auger, qui est un des Français, il y a Edouard Dohan Maldi, qui est un italien, donc des très grands scientifiques, il y a L'Incor d'autres que je oublie, et des diplomates, il y avait François de Rose, qui était un diplomate suisse, qui a beaucoup poussé à ça, d'Autrille aussi, qui a beaucoup poussé à ça. François de Rose, d'ailleurs, vit encore. Il a fait un article, il a 100, un an, il a fait un article dans le monde qui était remarquable, toute une page dans le monde, au moment de la découverte des Beaux-en-de-Lys, juste après la découverte des Beaux-en-de-Lys. Donc voilà, c'était un peu l'équivalent des monnaies, des chumans, des gens qui ont créé l'Europe, qui avaient vraiment une vision. Maintenant, l'aspect politique qu'on a, ils avaient déjà prévu donc vraiment une organisation européenne ouverte sur le monde, c'était la science pour la paix, avec l'idée qu'à terme, même si c'était créé au début par les États européens, si réellement on arrivait à rayonner dans le monde entier et à tirer d'autres États, c'était notre mission, donc c'est ce qu'on fait actuellement avec ce deuxième cercle d'associés, où il y a donc la Russie, le Brésil, l'Inde, les Brics, si je puis dire, même si pour l'instant, les États-Unis et le Japon ne veulent pas faire partie de l'organisation, ils préfèrent participer à des projets en tant que tel, mais pas rentrer réellement dans l'organisation. Enfin, c'est déjà une belle ouverture vers le monde. Les considérations politiques, on essaie de faire en sorte que ce soit quand même une organisation scientifique. Et donc, ce qui est quand même vrai, on garde quand même l'idée que le cœur, c'est-à-dire les États membres, soit européen, en mettant plutôt les associés autour dans un deuxième cercle, c'est-à-dire ceux qui apportent que 10%, mais qui n'ont pas le droit de vote, mais qui participent quand même à toutes les délibérations et peuvent donner leur avis. Donc, il y a quand même pour l'instant l'idée que ça doit quand même rester européen ouvert vers le monde. On n'est pas encore sur l'idée d'une organisation mondiale de type ONU scientifique. On est encore sur une organisation européenne ouvert sur le monde. Mais alors que c'était parti d'une organisation purement européenne. Maintenant, quels sont les... Aussi, l'aspect, par contre, que l'on n'avait pas vu venir, qui est devenu maintenant important et sur lequel, moi, j'essaie de faire évaluer ça. Donc, ce système d'innovation qui a donné lieu au web, au logiciel libre, maintenant à la grille de calcul. Donc, c'est une innovation collaborative, ouverte, gratuite, basée sur le long terme. J'ai demandé, le conseil du CERN a souhaité, que l'OCDE, l'organisation commune du développement économique, évalue combien ce modèle-là contribue à la croissance dans le monde. On sait que le web a contribué beaucoup à la croissance dans le monde, même avec un système gratuit qui n'a pas empêché les entreprises ensuite de se constituer, de faire toute une économie du web. Et donc, l'OCDE a planché pendant plus d'un an, deux ans. Il doit sortir le rapport, j'aurai le draft, enfin, la première version, lundi, quand je ressemble, et elle devrait être présentée d'ici la fin d'année, début de l'année prochaine. Et donc, on verra comment s'est évalué ce modèle d'innovation. Moi, je pense que c'est quand même un modèle intéressant. Il y a d'ailleurs de plus en plus d'entreprises qui s'intéressent à ça. Par exemple, Airbus et Boeing commencent à en avoir assez de faire la R&D séparément, alors qu'ils pourraient très bien la faire ensemble, quitte à ce qu'après, puis faire l'exploitation des avions séparément. Donc, il y a une tendance, même dans le monde des entreprises, de se dire que finalement, la R&D, on pourrait la faire ensemble avec un modèle de type CERN, ce qui n'empêche pas ensuite d'avoir la possibilité, comme avec les logiciels libres, de faire quand même du business. Donc, j'essaye de pousser à ce que c'est un côté semi-économique politique d'avoir une validation de ce modèle-là, qu'un modèle un peu sans brevet, par rapport au modèle de brevet qui retient l'information et qui la garde pour soi. On est dans un modèle où, immédiatement, tout est mis gratuitement. – La Chine n'est pas associée du tout. – Si la Chine a contribué à des accords de coopération, c'est-à-dire, elle envoie des utilisateurs, mais elle n'a pas encore contribué pratiquement à la machine. Elle est encore loin du compte. Non, c'est le Japon qui en Asie est le plus avancé. Ils ont même des projets au Japon. Mais les États-Unis sont bloqués par rapport aux CERN. Les États-Unis auront du mal à faire une machine mondiale, d'une part parce que chez eux, la prééminence du Congrès, surtout traité est quasiment dans la Constitution. Donc ça les empêche de faire un traité multilatéral. Ils ont moins l'habitude des négociations multilatérales que l'Europe qui devait le faire, ne serait-ce que pour faire vivre l'Europe. Et en plus, le problème des visas aux États-Unis est quasiment insurmontable. L'Asie est divisée comme, je veux dire, qu'à voir les autres Japon et la Chine, avant qu'ils arrivent simplement à faire quelque chose dans l'Asie, je pense que l'Europe a un créneau pour les installations mondiales scientifiques qui est en or. Bon, c'est pas par hasard que ITER est également en Europe. Et à mon avis, les installations qui seront plus en plus mondialisées parce que la science évolue quand même vers des choses de plus en plus lourdes et qu'il faut mutualiser, l'Europe a un créneau à jouer qui est extraordinaire. Tout à l'heure, vous parliez d'augmenter l'énergie en 2015, donc la doublée. Mais est-ce que... Qu'est-ce que ça veut dire concrètement, augmenter l'énergie ? Ça veut dire augmenter la vitesse et pouvoir dépasser l'Asie, enfin... Non, alors... En théorie de la relativité, vous avez une vitesse limite qui est la vitesse de la lumière. Donc, si vous prenez un proton, il est déjà au LH, il est à 0V1, 9, 9, 9, 9, il doit y avoir 6, 9, il faut à la vitesse de la lumière. Donc, vous augmentez... Lorsque vous lui mettez de l'énergie, vous pouvez lui mettre le plus en plus d'énergie. Il se rapproche de plus en plus de la vitesse de la lumière, mais son énergie cinétique, son énergie augmente, ce qui, vous lui mettez, par exemple, du champ magnétique, ou du champ électrique, pardon, du champ électrique, vous pouvez lui conférer de l'accélération, vous mettez un champ électrique sur une certaine distance, et bien vous avez une force qui est liée à sa charge électrique et au champ électrique et la longueur sur laquelle vous l'accélerez. Donc, vous continuez à lui donner de l'énergie par une différence de potentiel. Donc, si vous avez un certain nombre de volts, de différence de potentiel avec la charge du proton qui était la même que la charge de l'électron, vous lui conférez un certain nombre d'électronvolts par la différence de potentiel dans lequel vous vous voyagez. Donc, vous lui donnez des électronvolts en plus, donc des jèves, des gigaélectronvolts en plus, mais il est toujours à la vitesse, quasiment, à la vitesse de la lumière. C'est l'épsilon, la vitesse qu'il acquiert. Il acquiert très peu de vitesse, mais il peut continuer à acquérir de l'énergie par les différences de potentiel dans lesquelles vous placez le proton successivement à chaque tour. Vous disiez que le besoin de l'électrique, c'était à 126 jèves de masse. Alors pourquoi il faut balancer 7 térééélectronvolts ? Alors c'est vrai. Pourquoi il faut balancer 7 térééélectronvolts ? C'est parce que d'abord, il y a deux raisons pour ça. D'abord, c'est que, comme je l'ai dit, les protons, c'est un magma de quarks et de gluons. Le proton fait trois quarks, mais c'est même plus compliqué que ça. Trois quarks qui sont liés par des gluons. Tout ce monde-là emporte une fraction variable, d'une collision à l'autre, de l'énergie des protons. Donc finalement, quand vous avez collision quarks-quarks, c'est qu'une fraction de l'énergie d'un proton incident qui vient buter contre une fraction de l'énergie du proton de l'autre proton incident, tout le reste, les autres quarks et gluons, restent en spectateur et continuent à l'entume à vide. Donc l'énergie utile, réellement des huit tèvres est inférieure à un tèvre de collision par collision, parce que tout le reste est pris par les autres quarks. Et en plus, comme c'est une fraction variable, il faut qu'on ait la chance que les deux veuillent bien s'additionner pour donner juste les 126 gèves du boson de l'Higgs. C'est vrai que c'est pour ça que, si on voulait avoir une machine très efficace, il voulait mieux faire une machine et plus et moins, parce que là, les électrons et les positrons sont des composants élémentaires, et à chaque collision, vous pouvez fabriquer votre boson de l'Higgs. Là, il faut fabriquer des milliards de collisions. Vous avez vu, un million de milliards de collisions pour observer, finalement, aujourd'hui, de l'ordre de 1 millier de bosons de l'Higgs. Donc le rendement n'est pas très grand. Mais ça, c'est l'inconvénient des collisions proton-potons. Elles vous permettent d'accéder à des énergies très grandes, donc chercher les particules supersimétriques, mais il y a un gâchis qui est terrible. C'est qu'il faut aller chercher une aiguille dans une botte de foi. Bonsoir. Oui, j'ai une question. Je crois que c'était juste avant la mise en service du LHC. Il y avait des chercheurs qui étaient très effrayés par la probable formation de mini trou noir. Qu'est-ce que c'est qu'un mini trou noir et est-ce que ce problème est toujours d'actualité ? C'est un épisode intéressant parce qu'il touche à ce qu'on appelle le principe de précaution. Dans les théories des supercordes, il y a l'idée qu'il y a des dimensions cachées. Et dans ces dimensions cachées, il y a la gravitation qui peut intervenir. Bref, il y a la possibilité théorique de fabriquer dans une collision proton-proton, où on a un état très dense de la matière, de fabriquer un mini trou noir. Un trou noir, c'est un état de la matière où la vitesse de libération est plus grande que la vitesse de la lumière. C'est-à-dire que c'est un état très dense qui fait que rien ne s'échappe en gros. Et en contraire, un trou noir, comme les trous noirs marcoscopiles dans l'univers, absorbe tout. Si on peut fabriquer des mini trous noirs, même si les théoriciens disent qu'ils vont s'évaporer immédiatement et se désintégrer, est-ce qu'on est vraiment sûr de ces théories qu'on ne connaît pas très bien ? Comme je l'ai dit, il y en a des multiples. Et en plus, on n'a pas une maîtrise complète loin de là de ces théories-là. Et donc, à travers les incertitudes qu'on a, on ne pourrait pas imaginer qu'une collision proton-proton, ou pire encore plomb-plomb, fasse un mini trou noir qui soit beaucoup plus stable que ce qu'on veut bien dire, et qui accrète d'abord le tuyau autour, l'expérience autour, la ville de Genève. Et donc, au nom du principe de précaution, il y a eu la cour de Hawaii qui a été saisi, et puis en Allemagne, il y a eu des procès et qu'il n'en finissait plus. Qui ont derrière terminé, je crois que ça a été... Les personnes ont été déboutées que depuis quelques mois, simplement. Alors, la réponse, elle n'a pas été facile. Le CERN a pris la chose sérieusement. Ça montre jusqu'à où on peut pousser le principe de précaution, parce que la limite, on pourrait dire que, lorsqu'on fait deux collisions de voiture sur l'autoroute, par effet tunnel, je ne sais rien, avec une probabilité extrêmement faible, on pourrait fabriquer un tour noir et donc interdire la circulation sur l'autoroute à cause du principe de précaution. Donc, c'est sans limite, c'est sans limite. Néanmoins, on a voulu aller plus loin que ça et voir si on était capable de donner un argumentaire scientifique, parce que c'est vrai qu'on ne peut pas utiliser... Le fait que la théorie prévoit qu'il s'évapore, parce qu'on sait bien qu'on a des failles dans la théorie, on n'a pas la théorie de tout, puisque sinon, on arrêterait les recherches, donc il y a tout un domaine de non-connaissance dans lequel on peut s'infiltrer pour dire que peut-être on pourrait arriver à fabriquer ce tour noir. Mais en fait, ce qui nous sauve, c'est les rayons cosmiques, parce que la Terre est bombardée depuis des milliards d'années par des rayons cosmiques qui ont des énergies beaucoup plus grandes que ce qu'on fabrique avec le LH. Et on peut montrer que depuis que la Terre est Terre, elle a reçu sur elle beaucoup plus de rayons cosmiques d'énergie plus grande que ce qu'on fabrique au LH que tous les protons, les collisions protons-protons qu'on arrivera à faire avec le LH. Beaucoup plus, et les chocs ont une énergie dans le centre de masse qui est plus grande que les collisions protons-protons. Donc à travers ça, on a pu montrer, il y a eu un papier qui a été fait, qui a été soumis à des référies, donc un papier qui a suivi la procédure scientifique, qui montrait qu'à travers ce qu'on sait de la Terre et des autres planètes et des autres étoiles, et du bombardement cosmique, c'était pas possible qu'on puisse fabriquer des trous noirs qui viennent absorber la planète, puisqu'on aurait vu des phénomènes cataclysmiques de cet ordre-là. Pour les collisions plomplons, c'était un peu plus compliqué, parce que quand même, proton-protons, il y en a plein. La plupart des rayons cosmiques sont des protons. Ils cognent contre des protons. Des collisions plomplons quand même, il y en a un peu moins. Là, il faut utiliser des arguments un peu plus compliqués, le fait que le proton, le plomb est fait de proton et de neutron, mais c'était quand même assez convaincant. Ceci dit, j'ai appris, il y a une semaine, qu'il y a encore le new scientist qui est en train de revisiter la question, qui voudrait m'interviewer pour être sûr qu'on a fait les choses de manière correcte du point de vue gouvernance, en suivant le principe de précaution et le moindre risque, parce que c'est vrai qu'il y a toujours des incertitudes dans la théorie dans lesquelles on pourrait imaginer. Donc le problème, vous voyez que derrière, c'est d'appliquer le principe de précaution avec des probabilités qui sont hepsilotes, mais évidemment des risques qui sont gigantesques. Donc c'est zéro que multiplie l'infini dans lequel on n'a pas... Dans lequel c'est pas facile de naviguer. Ceci dit, là, les rayons cosmiques nous ont sauvés, mais pour la prochaine machine, si on va vers la prochaine machine de centèbres, c'est-à-dire dix fois plus que le LH, de 80 km de circonférence, cet argument-là pourra plus marcher. Parce que là, on arrive à des collisions plus fortes que les rayons cosmiques. Merci, en tout cas, d'être venu. Merci.