 Bon, on va supposer que c'est bon. Je sais pas si l'autre en fie nous entend. Donc on est ravi d'accueillir aujourd'hui Valérie Maçon Delmotte, qui est paléo-climatologue, directrice de recherche au CEA, au laboratoire des sciences de l'environnement et du climat, qui travaille sur la compréhension de la dynamique du climat et en particulier le cycle de l'eau, et qui a participé à l'écriture des rapports 4 et 5, si je me souviens bien. Du GIEC, donc du groupe inter-gouvernemental des experts sur l'évolution du climat. Voilà, donc je vous laisse la parole pour un petit peu moins d'une heure. Merci, donc merci de cette invitation. Je suis complètement en dehors de ma niche écologique, donc j'ai choisi de ne montrer aucune équation, bien sûr. Et ce que je souhaite faire, c'est dresser un tableau de l'évolution des sciences du climat, pour lesquels évidemment les statistiques jouent un rôle déterminant, aussi bien pour l'analyse des observations, que pour l'analyse des simulations, de même que le cadre probabiliste joue un rôle de plus en plus important par rapport à l'étude même des scénarios possibles d'évolution future de ce climat. Et ce que je souhaite montrer par là, c'est également donc la nécessaire synthèse par rapport à un domaine scientifique qui est foisonnant et qui repose sur une multitude d'expertises complémentaires. Donc cette diapositive, elle illustre pour moi qu'elles ont été les étapes clés de la construction de ces sciences du climat. Vous avez là l'un des premiers instruments de mesure, des marches graduées en Égypte ancienne qui permettaient de mesurer l'écrue d'une île pour lesquelles on a plusieurs millénaires d'observations quantifiées historiques. Pourquoi mesurer l'écrue d'une île ? Un aspect critique pour la productivité, pour la production agricole. Un aspect critique pour les recettes fiscales d'un des premiers états centralisés et la mise en place d'un système de mesure dans le temps. Ces observations, en fait, elles sont critiques pour caractériser le climat, le caractériser dans le temps long et le caractériser à l'échelle planétaire. Donc les dates clés, c'est les instruments météorologiques, la standardisation des réseaux de mesure, 19e siècle, la standardisation moderne 1950 pour les observations météorologiques actuelles. Par ailleurs, donc l'observation, elle repose sur des données in-situ, vous avez un thermomètre, vous avez une bouée marine automatique, et puis elle repose aussi sur des observations spatiales. Et donc depuis, en gros, les années 1970, on a la capacité d'observation à l'échelle planétaire, mais modulé par les performances de chaque satellite et la nécessité de standardiser les mesures d'un instrument à l'autre pour avoir des jeux de données cohérents sur des échelles de temps, de 30 ans ou plus qui sont celles du climat. Ensuite, à côté de cette capacité d'observation, un deuxième volet, c'est les briques de base de la physique. La physique des fluides, les transferts radiatifs, la terbe dynamique, tout ce qui permet de comprendre, comment dire, le fonctionnement et les interactions des deux fluides qui jouent un rôle déterminant sur le climat de la Terre, l'océan et l'atmosphère. Donc on a cette conjonction entre finalement un travail d'observation qui pouvait être considérée comme fastidieux dans les années 50, un travail de formalisation théorique du fonctionnement des fluides, et puis l'évolution grâce à la puissance de calcul dès la pré-guerre, appliqué à la prévision du temps à quelques heures, quelques jours, et puis, grâce à cette évolution de la puissance de calcul, la capacité de modéliser l'évolution du climat aujourd'hui sur plusieurs siècles, demain sur plusieurs millénaires, sur des gris dont la résolution spatiale, évidemment, s'affine pour aller vers l'échelle locale, celle, évidemment, que les décideurs attendent par rapport aux risques locaux concrets. Et puis, à côté de cette évolution-là, des techniques, je dirais, quelque part, on a aussi des révolutions conceptuelles. Dès l'Antiquité, on avait la pensée du mot « climat » qui est liée à l'inclinaison du rayonnement solaire, c'est ce que veut dire « climat » en grec, donc le cycle d'urne, le cycle saisonnier, les gradients à l'attitude, c'était déjà pensé, conceptualisé, et on rapporte à Aristote dans les météorologiques la conceptualisation de la variabilité du climat, où il explique que, d'une génération à l'autre, se produisent des changements, des longues saisons de pluie, ça, c'est la vision méditerranéenne, comparé à notre propre existence, dit-il, ces phénomènes pastis n'a perçu, et c'est une vraie difficulté, comme être humain, nous ne sommes pas sensibles au climat en général, nous sommes sensibles au local, et nous avons une mémoire biaisée par les événements extrêmes. Et donc, on a une conceptualisation vers une approche planétaire, et une révolution pour moi importante, c'est toujours au 19e siècle, la prise de conscience croissante d'un monde dont le climat a varié au cours du temps, avec des controverses scientifiques très vives, entre une vision religieuse d'un monde figé, et puis les résultats des géologues, des naturalistes, des glaciologues, de glaciations, les premiers calculs d'arenus, qui suggèrent qu'en injectant des gaz à effet de serre, on va changer le climat. La formalisation des théories, des glaciations par des mathématiciens Minutin Milankovic, 1940, le rôle des grandes variations de l'orbite de la Terre sur ces glaciations, et ça, c'est joli, la vérification expérimentale dans les années 70, grâce à des méthodes de datation et de quantification de ces changements passés, de ces théories astronomiques sur les climats passés. Donc, ça, c'est le contexte. Aujourd'hui, une communauté large, à peu près 1 000 personnes en France, je dirais 15 000 dans le monde, 15 000 publics scientifiques, chaque année avec le mot « climat », ce qui rend impossible à chacun d'entre nous d'avoir une vision de l'ensemble de ce domaine, et le besoin formulé par les gouvernements, compte tenu que le climat change, d'avoir régulièrement une synthèse, une photographie de l'état des connaissances à travers les rapports du GIEC, qui sont une coproduction science et politique, et je vais essayer de vous le décrypter. Alors, d'abord, 3 illustrations de progrès majeurs, les progrès de l'observation atmosphérique au sol, les stations météo, bon, ça démarre sur du grand réseau dans les années 1850, et puis les observations verticales avec un ensemble d'engin, et les observations par satellite. Vous avez là la date des premières observations de température, alors, avant 1900, dans les régions développées, on va dire, et puis souvent à partir de 1950, dans les pays tropicaux, ou 1957, en Antarctique. Vous avez là aussi le nombre de mesures par satellite, le nombre de sources de données par satellite, en 96, une dizaine, et aujourd'hui, une cinquantaine. Donc, on a cette masse de données à traiter, à homogénaliser et à analyser, pour caractériser et comprendre les processus en jeu. Du côté océanographique, il y a également des progrès énormes dans les réseaux d'observation. Donc là, ça vous montre par point de gris, en fait. Le nombre de profils entre la surface et 700 mètres de profondeur dans l'océan. Et vous voyez qu'on a un réseau assez partiel, essentiellement dans l'hémisphère nord, dans les années 1950, et des progrès 10 ans par 10 ans, et aujourd'hui, une couverture assez homogène sur la surveillance de l'évolution des températures dans l'océan, sur des profils verticaux. Pourquoi c'est important ? Parce que dans le climat, l'atmosphère, c'est ce qui réagit rapidement. C'est le lieu des échanges radiatifs. L'océan, c'est ce qui va accumuler de la chaleur et qui va la stocker et la transmettre quelque part dans le temps. Donc c'est une forme de mémoire et d'intégrateur de la variabilité rapide que l'on voit là où nous vivons, c'est-à-dire dans l'atmosphère. Et puis des progrès en termes de modélisation numérique. Alors je ne parle pas de modélisation conceptuelle ici. Donc où on représentait dans les années 1970, essentiellement l'atmosphère un petit peu la surface des continents. Et puis l'océan de manière extrêmement simplifiée comme une grosse flac en fait. Et puis aujourd'hui, donc, on représente l'atmosphère en trois dimensions, des modèles qui comportent l'hydrologie de surface, la végétation, l'océan en trois dimensions avec la banquise, les particules, donc nous on appelle ça des aérosols, le cycle du carbone, le fait que la végétation change quand le climat change, les interactions entre la chimie de l'atmosphère, l'éche-transphère de rayonnement, le climat. Et maintenant, depuis peu, l'interaction avec les glaciers ou les calottes de glace et ça, c'est encore balbutiant. Et puis des progrès en termes de résolution spatiale, donc ne serait-ce qu'il y a environ 7 ans, on travaillait avec des gris d'environ 200 par 200 km, maintenant c'est autour de 100 par 100 km, donc on a des effets de relief qui peuvent être un peu représentés. Et puis on a également des modèles de climat régionaux qui vont aller regarder les processus de petite échelle qui sont déterminants, par exemple, pour représenter correctement la distribution des pluies. Alors donc, l'IPCC en anglais ou le GIEC en français, ça a été établi en 88 par l'Organisation météorologique mondiale et les Nations Unies avec leur programme pour l'environnement et c'était dans une continuité par rapport à une action internationale fructueuse par rapport aux composés qui détruisaient nos zones stratosphériques. Donc deuxième problème environnemental global et la mise en place d'une synthèse de l'état des connaissances, donc le GIEC a pour mission de faire une évaluation de ces connaissances, donc d'être policy relevant, comme on dit en anglais, mais pas policy prescriptive. Donc c'est de faire cet état des lieux. Moi, je vais me focaliser sur les connaissances en physique du climat, ce qu'on appelle le groupe 1. Dernier rapport donc rendu public à prouver en septembre dernier, sous presse actuellement. En mars prochain, le rapport sur les impacts et les stratégies d'adaptation. Et puis en avril prochain, sur les aspects plus économiques sur les stratégies d'atténuation et en particulier tous les aspects d'économie de l'énergie. Alors une des spécificités de ces rapports, c'est qu'ils sont illisibles pour le commun des mortels. Et pourquoi ? Parce que finalement, le coeur du travail de synthèse, c'est une évaluation de l'incertitude. Alors cette incertitude, on l'évalue de manière standardisée en tenant compte des éléments disponibles, les types d'observation, leur cohérence, la compréhension des processus, les résultats de simulation. Donc à partir de cette synthèse des éléments disponibles, on a une évaluation qualitative de degrés de confiance. Donc on a des formulations avec un degré de confiance faible. Donc en général, cela, ils ne survivent pas dans les synthèses. Moyen ou fort. Et on peut réviser ce degré de confiance. Parfois, quand on progresse en scientifiquement, le degré de confiance peut baisser. Et ça fait aussi partie du fait de mieux appréhender par exemple différents degrés de liberté. Et quand cela est possible, on a également une quantification de l'incertitude avec une estimation de la probabilité. Donc en général, c'est seulement une partie de l'incertitude, typiquement une dispersion entre simulation numérique ou une dispersion entre jeu d'observation indépendant. Voilà. Naomi Oreskos, historienne des sciences américaines, fait une analogie entre, comment dire, les moines médiévaux et leur volonté de prouver leur bonne pratique en se flagellant et les climatologues aujourd'hui qui sont obnubilés par le fait de rapporter le plus fidèlement possible cette incertitude. Parce que finalement, du coup, le commun des mortels, en lisant nos rapports, voit que les conclusions les plus fortes, elles sont toujours au mieux à 95% de degré de confiance et se disent, ah mais ils peuvent se planter. Alors, donc ce rapport, il est structuré avec un peu un aspect historique, méthodologique, des chapitres sur les observations. Y compris les climats du passé, et donc je vais en parler très peu, mais c'est à quoi j'ai contribué, des choses sur les processus du cycle du carbone, le rôle des nuages et des aérosols, un aspect évidemment extrêmement important sur les échanges de rayonnement et un aspect particulièrement complexe parce qu'on a des interactions d'échelle entre la gouttelette d'eau, le cristal de glace dans le nuage et puis le climat global. Ensuite, donc pareil, tout ce qui touche aux perturbations des échanges de rayonnement entre la Terre et l'espace, ce qui est évidemment l'aspect déterminant, des facteurs qui conditionnent la partie déterministe de l'évolution du climat. Et puis ensuite, toute une partie qui repose sur l'utilisation de modèles de climats numériques, l'utilisation de méthodes statistiques pour détecter si les changements en cours font partie de la variabilité précédente du climat où constitue une rupture et également ces méthodes pour attribuer sur un système complexe qui réagit en permanence à de multiples facteurs pour faire la relation entre une cause et une conséquence. Et puis ensuite, donc, ce qu'on peut dire sur l'évolution à 30 ans et les limites à les prédictabilités. Et ensuite, l'évolution à long terme, 100 ans et au-delà, une réflexion sur la notion d'irréversibilité, je vais en parler un peu, et puis deux chapitres qui sont vraiment à la demande des politiques, une synthèse à travers le temps sur ce qu'on sait sur les risques en termes de niveau des mers et puis sur tout ce qui est phénomène climatique, événement extrême, mousson, etc. Donc tous ces processus qui, à l'échelle régionale, jouent un rôle déterminant sur notre environnement. Alors, donc, en résumé, nous citons dans ce rapport 9 200 articles dans la littérature scientifique donc un souhait d'exhaustivité. Les 259 auteurs choisis par les procédures des Nations Unies, donc avec un renouvellement à 60 % des auteurs choisis pour leurs compétences scientifiques avec un équilibre des pays et puis un petit équilibre des jambres, bon, faible, donc ce groupe d'auteurs, en fait, ils ne couvrent pas assez tous les domaines nécessaires, donc on sollicite des contributeurs supplémentaires. Donc, le rapport a reçu 54 000 commentaires de 1000 experts dans plusieurs phases de relecture et c'est ce qui fait sa richesse et sa force. C'est-à-dire, c'est un super peer review avec, évidemment, les limites de l'exercice où une erreur peut toujours passer à travers cet exercice de relecture systématique. Donc, on a 14 chapitres que je vous ai présentés puis aussi un Atlas, donc une sorte de série de cartes pour pouvoir assez facilement regarder région par région les résultats de tous ces calculs. Alors, le tout est distillé dans un résumé pour décideur de 14 000 mots qui sont tous approuvés un par un dans une réunion pleinière avec les représentants des gouvernements. C'est une procédure très particulière. Il y a un exercice de pédagogie, c'est-à-dire, nous, on formule ce qu'on pense être les points clés, et puis, pour un politique, c'est absolument incompréhensible dans certains cas. Donc, il y a une formulation commune. On a aussi des résultats scientifiques qui posent problème pour un certain nombre de gouvernements parce que certains d'entre eux pourraient être utilisés pour des accords contraignants internationaux et, dans ce cas-là, certains pays comme l'Arabie Saoudite ou la Chine ou le Brésil d'ailleurs peuvent faire tout ce qu'ils ont vu, mettre tout leur effort pour atténuer ces conclusions scientifiques. Et puis ensuite, on a également certains pays comme les pays africains qui n'ont pas eux une masse d'experts parce que c'est une science de pays riches, demande à avoir davantage d'éléments qui soient pertinents pour l'adaptation au changement climatique dans leur région. Voilà, je résume un peu ma perception de cette étape un peu particulière. Et à la fin, on a un document qui est approuvé par tous les gouvernements et qui sert de socle de travail commun dans d'autres arènes qui sont celles, par exemple, des négociations internationales sur le climat. Alors, quelles sont les points clés de ce rapport ? Parce que, évidemment, je pourrais vous faire deux lectures, soit une lecture de tout ce qu'on ne sait pas et donc, quelles sont les voies de recherche. Et ça, c'est mon métier quotidien. Et il y a aussi la lecture de quelles sont les points clés aujourd'hui et quelles sont les grandes inflexions par rapport à ce qu'on pouvait dire il y a six ans dans le rapport précédent. Et c'est l'exercice que je vais faire là. Donc tout d'abord, le réchauffement du climat, il est sans équivoque. Donc là, c'est l'évolution des températures de surface entre 1901 et 2012. C'est ce qu'on appelle le réchauffement global. Un réchauffement qui n'est pas homogène, il est plus prononcé sur les continents que les océans et amplifié autour de l'arctique. Et il y a un certain nombre de processus physiques qui sont à l'origine de ces structures. On observe donc un réchauffement des températures au-dessus des continents et de la surface de la mer. Je vais vous montrer qu'on observe un réchauffement en profondeur des océans, un recul de la couverture de banquise, un recul de la couverture de neige et un retrait des glaciers, donc les glaciers de montagne, mais aussi les calottes du Groenland et de l'Antarctique. La fonte des glaces continentales, le réchauffement de l'eau de mer contribue à faire monter le niveau des mers. Enfin, une atmosphère qui est plus chaude, c'est une atmosphère qui peut contenir plus de vapeur d'eau, ça, c'est Closius-Clapéron, et c'est également ce qu'on observe avec une augmentation de l'humidité moyenne à la surface. Parmi les changements que l'on observe, certains sont sans précédent sur des durées longues parce qu'on peut les rapporter aux informations évidemment moins complètes que l'on tire de l'étude d'archives naturelles du climat. Alors, voilà la série temporelle de cette évolution d'un indicateur, pour ramener le climat à un seul indicateur ici, qui est l'évolution de la température moyenne à la surface de la Terre. Trois jeux de données différents. On a parlé tout à l'heure de réplication ou falsification. Sur cet exercice-là, cette courbe est toujours très discutée. Un physicien de l'Université de Berclay a voulu tout refaire, mis en question le travail des climatologues, des trois équipes qui font ces estimations, a obtenu des financements non publics parce qu'aux Etats-Unis, c'est un gage de confiance d'être financé par l'industrie et pas le gouvernement, et a obtenu des résultats extrêmement cohérents avec ceux qui existaient. Et je pense que c'est pour moi la pratique scientifique standard de pouvoir justement refaire les calculs. Et l'évolution dans notre domaine, c'est de mettre les données, elles sont en grand volume, en accès libre, mais pas les données brutes, les données corrigées, parce qu'il faut corriger les observations des changements d'instruments, etc., ce qui est un des points critiques pour évaluer l'évolution sur le long terme. Donc, si on fait une tendance linéaire là-dessus, il y a un réchauffement de 0,85°, une forte variabilité d'une année à l'autre, elle peut être liée à l'occurrence d'une éruption volcanique majeure en 1991, le Pina Tubo, elle peut être liée à des échanges océons atmosphères dans les tropiques, en ce qu'on appelle les événements, la niña ou elle-nigno. A l'origine, par exemple, du pic de température en 97-98, il y a une fluctuation d'une décennie à l'autre avec une contribution significative mais modeste des cycles de 11 ans de l'activité du soleil. Et puis, je vais vous montrer ensuite l'analyse des sources de ce réchauffement observé en deux temps au début des années du 20e siècle et puis depuis les années 70. Donc, certains suggèrent qu'on a une pause dans le réchauffement global. Ce qu'on observe, c'est un ralentissement du rythme, du réchauffement en surface depuis une quinzaine d'années, très probablement en grande partie due aux interactions océons atmosphères dans le Pacifique avec un peu plus d'enfouissement de chaleur dans les océans sur la période la plus récente. Et donc, le résultat le plus remarquable, c'est que chacune des trois dernières décennies a été successivement plus chaude que les précédentes. Et en fait, cette période de 30 ans, elle est également la plus chaude avec un degré de confiance moyen depuis 1450 années, c'est-à-dire également plus chaude que les épisodes chauds de la période médiévale. Et vous avez certainement entendu parler de débats sur l'approche statistique utilisée pour estimer les variations de température au cours des derniers mille ans, la fameuse courbe en cross de hockey, pour laquelle, dans ce rapport, on fait état d'un certain nombre de résultats nouveaux qui confirment les conclusions précédentes. Alors, le changement climatique, ce n'est pas seulement l'atmosphère qui se réchauffe, mais c'est aussi l'évolution du contenu thermique des océans qui est ici exprimé en joule, une barre d'erreur importante suite à la couverture de données en 1950, et puis, vous voyez, une convergence des différentes estimations. Donc, un réchauffement qui, en magazine de la chaleur, sur les premiers 700 mètres, peut être un chiffre important à retenir, c'est que, finalement, ce système climatique il accumule de l'énergie. Sur 100 % d'énergie accumulée, ce que je vous montrais tout à l'heure, le réchauffement de l'air, c'est seulement 1 % du surplus d'énergie. 93 % de l'énergie accumulée, c'est ce réchauffement des eaux de mer qui va persister pendant longtemps. 3 % c'est la fonte des glaces, et 3 % le réchauffement des sols. Ca, c'est la répartition de l'énergie, et ça, c'est le mestre d'honte. L'océan, en fait, accumule la majeure partie de l'énergie, en plus, dans le système climatique. Alors, un océan qui se réchauffe, c'est du côté de l'Arctique, également associé à un recul extrêmement important de la couverture de banquise de glace de mer. Elle couvrait autour de 10 millions de km2 en 1900, un déclin net depuis les années 60 qui s'est accentué ces derniers 15 ans, et les 2 minima récents de couverture de banquise étaient observés en 2007 et 2012 avec une forme de nouvelle frontière qui s'ouvre pour la navigation, par exemple, avec les passages du Nord-Est ou du Nord-Ouest. Du côté de l'Antarctique, on a une légère augmentation de l'extension de glace de mer, avec la complexité qu'en Antarctique, on a des changements dans la couche d'ozone de la haute atmosphère, dans le vortex polaire, et une superposition de différents effets avec des grosses variations d'un secteur de l'Antarctique à l'autre. Et ce recul de la banquise, la fonte plus précoce du manteau neigeux contribue à une amplification du réchauffement autour de l'Arctique pour lequel, à la fois l'ampleur et la vitesse du réchauffement observé est le plus spectaculaire. Alors, l'océan se réchauffe, les glaciers fondent, et on observe une montée du niveau des mers depuis environ 1900. Cette montée du niveau des mers est d'environ en moyenne 19 centimètres. Il y a bien, évidemment, d'énormes hétérogénéités selon les régions. Certaines masses continentales remontent parce qu'elles étaient couvertes de glaciers. Dans certaines régions, l'urbanisation a aussi entraîné, évidemment, des variations relatives. Donc, ça, c'est l'estimation planétaire. Avant cette période-là, pour les 2000 ans précédents, on avait un niveau des mers très stable. Donc, c'est vraiment une rupture. Sur les derniers 15 ans, le rythme moyen de monter du niveau des mers est plus important autour d'environ 3 mm par an. Donc, on a eu une légère augmentation, comme on a pu, d'ailleurs, l'avoir dans les années 1940. Et enfin, un cycle de l'eau qui change, mais pour lequel les données disponibles sont évidemment moins, comment dire, cohérentes spatialement que pour les températures. Et vous avez là donc une représentation des tendances sur un siècle, 110 ans ou sur une soixantaine d'années, des changements de précipitation, avec une tendance à l'augmentation des pluies dans les régions tempérées ou polaires et à la diminution des précipitations dans les régions de climat semi-aride ou midi-terranéen. Et ce qui est vraiment joli sur ce dernier rapport, c'est la cohérence entre les mesures à terre, les pluviomètres, et les mesures en mer où on fait des suivis de la salinité qui intègrent sur de grandes régions. Et donc, pour les données en mer, on observe, en fait, une augmentation des contrastes, c'est-à-dire les régions où la salinité élevée deviennent plus salines, les régions où la salinité est faible deviennent moins salées depuis les années 1950. Donc, une augmentation des contrastes, et je vous montrerai tout à l'heure le sens, le processus physique qui est à l'origine de cette heterogénéité sur les changements du cycle de l'eau. Et enfin, donc, on observe des changements très profonds dans la composition de l'atmosphère, et en particulier sa teneur dans plusieurs gaz à effet de serre. Ici, je montre le dioxyde de carbone. Donc, aujourd'hui, on atteint des niveaux autour de 400, partis par million, dans la teneur en dioxyde de carbone. On est complètement en dehors des enregistrements depuis 800 000 ans dans les glaces polaires. Ce sont des niveaux qui ont été atteints à l'échelle géologique, dans des périodes, comme le pliocène, il y a 3 millions d'années, où on avait un climat globalement plus chaud, de plusieurs degrés, avec un niveau des mers plus élevé. Il n'y a aucun doute, aucun, que cette augmentation est due à l'impact des activités humaines. On peut le prouver par la baisse simultanée de la teneur en oxygène, ce qui montre qu'il y a une combustion qui est à l'origine de cette augmentation. On peut également le montrer par l'analyse des différents isotopes du CO2, par exemple le carbone 14 ou le carbone 13, qui prouve qu'il s'agit essentiellement de sources fossiles. Il est étonnant de voir qu'en France, on publie encore des livres à prétention scientifique avec des arguments complètement fallacieux par rapport à là où on peut avoir vraiment une démonstration de l'origine anthropique de cette augmentation. Cette augmentation de la teneur en dioxyde de carbone dans l'air entraîne une augmentation du CO2 dissout dans l'eau de mer et une acidification des océans dont le pH a baissé sur cette période de temps depuis le début du XXe siècle de 0,1 unités. Ça veut dire 10 fois plus dion hydrogène dans l'eau de mer. L'océan a observé environ 30 % des émissions anthropiques de dioxyde de carbone. D'où viennent nos émissions ? Vous le voyez là en fonction du temps. Révolution industrielle 1750 jusqu'en 2012. Elles viennent de la superposition de la consommation de charbon, première source historique, et puis de pétrole qui s'est ajouté, de gaz, de gaz non conventionnel, avec depuis une dizaine d'années un boom sur l'exploitation au niveau planétaire du charbon, qui est la source d'énergie qui rejette le plus de CO2 par quantité d'énergie produite. Alors que deviennent nos émissions anthropiques, donc il y a celles qui sont liées à la déforestation en orange au cours du temps ? Vous voyez qu'autant elle représentait la moitié des émissions liées aux activités humaines en 1950, autant en fait, vu l'augmentation de la consommation d'énergie fossile, elle ne représente plus que un dixième, finalement, aujourd'hui. Cette relative stabilisation des facteurs liés à l'usage des sols, masques en fait, de grandes hétérogénéités, une déforestation qui se poursuit dans certains secteurs, dans d'autres régions, des forêts qui poussent sur les terres agricoles abandonnées, donc cette courbe plate, masque en fait, des situations assez contrastées. Alors ça, ce sont les quantités que nous émettons chaque année dans l'atmosphère. Envers, c'est la partie qui est stockée par les sols et la végétation. Le dioxyde de carbone pouvant d'ailleurs jouer le rôle de fertilisant pour certains végétaux. Vous avez en bleu la partie qui rentre dans les océans et donc ce qui reste ici en bleu pâle, c'est la quantité qui s'accumule chaque année dans l'atmosphère et c'est à peu près la moitié de nos émissions. Donc l'épuis naturel de carbone, végétation et sol, augmente à mesure de nos émissions. Quelle est la conclusion ? La conclusion, c'est que la partie qui reste dans l'atmosphère, elle va y rester longtemps. Elle va y rester pendant plusieurs siècles, à plusieurs dizaines de milliers d'années dans le futur. Parce que les processus qui vont l'enlever sont des processus d'érosion, d'altération, qui ont des constantes de temps longues et on le connaît à l'échelle géologique. Alors maintenant, je vais vous comparer les différents termes qui vont jouer sur le bilan radiatif terrestre. Donc on regarde, en fait, au sommet de l'atmosphère. On a l'énergie solaire qui arrive et certains constituants, comme les particules, qui jouent le rôle de parasol, donc qui en renvoient une partie, qui vont avoir un effet refroidissant sur le climat et on va le mesurer en watt par mètre carré. Et on a un certain nombre de gaz à effet de serre qui, eux, vont empêcher de l'énergie infrarouge de quitter les basses couches de l'atmosphère et on va également mesurer cet effet en watt par mètre carré. Donc on va, de cette manière, comparer l'impact sur le climat de différents processus qui n'ont pas les mêmes répartitions dans l'espace et dans le temps. Donc encore une fois, on démarre en 1750 et on regarde jusqu'à aujourd'hui et cette fois-ci, on mesure l'effet radiatif de différents constituants en watt par mètre carré. Donc quand c'est vers le bas, c'est que ça refroidit. Quand c'est vers la droite, c'est que cela réchauffe. Donc sur les gaz à effet de serre, le premier facteur, c'est le dioxyde de carbone suivi du méthane et puis des oxides nitreux ou des allo-carbures. On a également d'autres gaz présents dans l'atmosphère qui ont un effet significatif, mais qui est finalement de seconde ordre. En ce qui concerne les particules de pollution, ce qu'on appelle des aérosols et leurs interactions avec les nuages, l'effet net est refroidissant, la barre d'erreur est beaucoup plus grande. Pourquoi ? Parce qu'ils sont répartis de manière très hétérogène spatialement et parce qu'on a moins d'informations sur leur évolution temporelle, en particulier avant la mesure par satellite. Par exemple, ça c'est les variations de l'activité du soleil. Si on prend donc la somme de tous ces facteurs-là, qu'est-ce qu'on voit ? On voit qu'il n'y a aucun doute que la somme des activités humaines a un effet réchauffant en termes de perturbation radiative, un demi-watt par mètre carré en 1950, ça double jusqu'au 1980 et ça redouble en 2011, un effet d'aide autour de 2 watts par mètre carré. Ces particules de pollution aujourd'hui très présentes en Asie du Sud-Est posent des problèmes majeurs en termes de qualité de l'air et vous le savez certainement, en particulier dans les grandes villes indiennes ou chinoises, et on a cette difficulté que ces particules ont un effet qui compend son parti, l'augmentation des rejets de gaz à effet de serre par leur effet refroidissant. Alors si on regarde sous forme de série temporelle, l'ensemble des facteurs qui jouent sur le climat, on voit qu'on a l'augmentation graduelle de l'impact des activités humaines en rouge, vous la voyez ici, donc c'est l'effet des gaz à effet de serre moins celui des particules de pollution avec une accélération très forte à partir des années 1970. A ces facteurs, cette somme de facteurs anthropiques s'ajoutent la léa naturelle. Alors qu'est-ce qu'il est ? Il est l'occurrence d'éruptions volcaniques majeures qui pendant 1, 2, 3 ans vont refroidir le climat par l'effet de parasols de ces particules. Et vous voyez donc un 19e siècle assez agité en termes d'activité volcanique, un milieu du 20e siècle plutôt calme et de nouveau, une fin de 20e siècle, marqué par une activité volcanique relativement forte. Et puis par-dessus, vous avez l'activité du soleil avec ces cycles de 11 ans, dont vous voyez l'ampleur en termes de flux radiative net par rapport à celui des autres termes. Donc c'est une activité qui est présente, qui a un effet globalement assez modeste avec des points d'interrogation sur ces effets plus régionaux. Comment relier une cause à une conséquence ? Ici, je vous montre le résultat d'ensemble de simulation où on démarre par un état aléatoire de l'océan et de l'atmosphère en 1800 ou 1850. Et en bleu, vous avez un ensemble de simulations faites à l'aide de modèles numériques de climat en réponse aux variations de l'effet du soleil et des volcans seuls. Alors qu'est-ce qu'on écrase quand on fait ce type de calcul ? On écrase finalement toute la variabilité d'une année à l'autre liée aux fluctuations océans-atmosphères. Il n'y a aucune raison qu'un calcul le réalise pour l'année où c'est observé. Donc ce terme-là, il est effacé par le fait de moyenné sur un ensemble de simulations différentes. Ensuite, en rouge, on a un ensemble de simulations avec les mêmes modèles qui est cette fois-ci effectué en prenant en plus en compte l'effet des activités humaines, usage des sols, particules de pollution, gaz à effet de serre. Alors qu'est-ce qu'on observe ? On observe que, sans l'activité humaine, on aurait un très léger réchauffement au début du XXe siècle. En fait, c'est essentiellement les changements d'activité volcanique qu'on voit. Et puis une diminution sur la deuxième moitié du XXe siècle. Quand on prend en compte l'impact de des activités humaines, on arrive à représenter en moyenne une partie des caractéristiques du changement observé, c'est-à-dire l'amplitude des changements de température et le timing, le moment où on voit cette accélération. Alors, cette analyse, on peut l'affaire à l'échelle planétaire, température moyenne, on peut regarder le contraste continent-global-océan et puis, évidemment, on peut le faire région par région. Donc je vais vous passer le détail, mais, par exemple, pour l'Europe, vous voyez, on a une barre d'erreur verticale qui est plus large, pourquoi ? Parce qu'on a davantage de variations d'une année à l'autre quand on regarde à l'échelle locale où la trajectoire des vents, la dynamique des courants marins, a un effet beaucoup plus important que les échanges de rayonnement. Et vous voyez que, par exemple, pour une région comme l'Europe, on ne sort finalement de l'enveloppe de la variabilité entre guillemets naturels du climat que, plus tardivement, en fait, au milieu des années 1980, que ce qu'on détecte à l'échelle hémisphérique ou globale. Alors je vous passe ça et donc une conclusion majeure, c'est que, finalement, avec ce type de méthode, on détecte une influence humaine dans le réchauffement de l'atmosphère et de l'océan, dans les changements du cycle de l'eau, dans la fonte des neiges et des glaces, l'augmentation du niveau des mers et, enfin, la modification de certains extrêmes. Alors certains extrêmes, c'est surtout les vagues de froid, les vagues de chaleur et les fortes précipitations. Pour d'autres paramètres comme l'intensité ou la fréquence des tempêtes ou des oeragans, évidemment, on est limité par les données disponibles et les conclusions sont moins robustes. Et la conclusion de ce rapport, en fait, sur cet aspect, c'est qu'il est extrêmement probable, 95% de confiance, que l'influence humaine a été la cause principale du réchauffement observé depuis le milieu du 20e siècle. Où est le point de blocage principal ? L'un des points de blocage, c'est qu'on représente mal certains effets de l'activité du soleil sur la haute atmosphère et ces interactions avec les vents à plus basse latitude. Donc, les progrès, c'est d'avoir des modèles de climat qui représentent mieux la haute atmosphère. On a également des points de blocage sur la représentation de l'effet de la dynamique océan-atmosphère et la voie de progrès, c'est des simulations en assimilant les observations pour arriver à construire un cadre de modélisation le plus proche possible des observations et arriver mieux à quantifier chacun des termes. Alors, quelles évolutions futures ? Pour cela, on explore un ensemble de trajectoires idéalisés, ce qu'on appelle des representative concentration pathways, c'est-à-dire différents trajectoires de perturbations radiatives en watt per mètre carré au cours des prochains siècles. Alors, cette famille de scénarios, elle comporte par exemple ici le scénario rouge où on triple, on quadruple d'ici à 2100 l'impact des activités humaines en watt per mètre carré. Donc, c'est un scénario d'utilisation intensive de l'énergie, charbon, gaz non conventionnel, pétrole non conventionnel, etc. Ensuite, on a des scénarios intermédiaires et puis on a un scénario bas. Celui-ci suppose une gouvernance mondiale du climat et l'implantation rapide de politiques contraignantes et une réduction rapide des émissions de gaz à effet de serre. Et dans ce cas, donc un effet des activités humaines sur le climat qui plafonne en 2040 et puis qui diminue lentement. Alors, peut-être pour bien voir comment ces scénarios se traduisent en termes d'émissions de gaz à effet de serre. On peut regarder donc les scénarios d'émissions liées aux énergies fossiles compatibles. Donc là, c'est l'évolution récente. Ce sont les grammes de carbone injectés chaque année. Le scénario bas, il implique en fait un pic des émissions de CO2 anthropique d'ici une vingtaine d'années et une diminution et des valeurs quasiment nulles dans la deuxième moitié de ce siècle. Le scénario haut, il implique simplement le business as usual en fait, c'est-à-dire la poursuite de l'exploitation croissante des énergies fossiles au cours du temps. Alors, qu'est-ce que ça donne en termes de climat sur ces différentes familles de scénarios ? Donc pour chaque scénario, on va utiliser une quarantaine de modèles de climat différents. On en a deux en France, Météo France et l'Institut Pierre Simon Laplace. On a en fait un développement croissant de ces modèles numériques avec aujourd'hui un rôle déterminant de la Chine qui investit massivement dans les recherches sur le climat. Alors, qu'est-ce qu'on voit ? Donc ça, c'est l'évolution observée, les 0,85 degrés, enfin, les 0,85 degrés déjà observés depuis 1850. Et puis, donc là, on a la première famille de scénario, c'est le scénario bas, où on voit un réchauffement supplémentaire d'environ 1,5 degrés avec une barre d'erreur à horizon 2100. Et sur le scénario haut, vous voyez un réchauffement de 4 degrés supplémentaires à horizon 2100. Donc vous voyez que finalement, l'incertitude, pour un scénario donné et les relativement modestes, c'est la dispersion des calculs existants. Ce que vous pouvez aussi peut-être deviner, c'est que finalement, ces ordres de grandeur-là, on les a depuis le milieu des années 1970. Malgré la complexification des modèles numériques de climat, le fait de rajouter des processus, de représenter mieux certaines des interactions clés, on est sur les mêmes ordres de grandeur. Et ces ordres de grandeur, ils sont liés à de l'énergie qui, en fait, de base du système. Et je pense qu'on la comprend correctement aux premières ordres. Ces modèles de climat, on les utilise aussi, on les teste pour des grands changements passés, des climats plus chauds à l'échelle géologique comme le pliocène, les cycles glaciaire-interglaciaire, les climats glaciaires, etc. Ils représentent à peu près correctement le premier ordre par rapport aux informations paléo-climatiques disponibles sur des périodes assez longues. Juste pour préciser, donc là, on parle, en fait, sur, disons, 200 ans, d'un changement en tout d'environ 5 degrés. Le plus gros changement climatique, le plus récent, c'est entre la dernière période glaciaire qui a culminé il y a 20 000 ans et le climat chaud qui a démarré il y a 10 000 ans. Cette transition-là, c'est autour de 5 degrés. Ça s'est fait en 10 000 ans. Donc, on est sur des ordres de grandeur de changement dans le scénario haut, qui sont une rupture en termes d'amplitude et en termes de vitesse par rapport aux variations même les plus grandes variations du climat que notre espèce a connues depuis son évolution, puisque nous avons 200 000 ans à peu près. Par rapport aux objectifs affichés par les politiques, donc la Conférence de Copenhague a donné lieu à un accord international visant à ne pas dépasser 2 degrés de réchauffement par rapport au climat pré-industriel. Donc, si on fait une lecture de ses calculs, seulement le scénario 2.6 permet de réussir avec un degré de confiance important de limiter le réchauffement total à moins de 2 degrés. Tous les autres, en fait, pourraient le dépasser. Et enfin, à l'exception de ce scénario, dans tous les autres cas, on a évidemment un réchauffement qui se poursuit au-delà de 2100. Alors, sous forme de carte, qu'est-ce que ça donne ? Un degré et demi en plus ou quatre degrés en plus ? Donc je vais commenter la carte de réchauffement de quatre degrés en plus. C'est un réchauffement plus prononcé sur les continents que les océans. Le mécanisme en jeu est le suivant. Quand vous réchauffez de l'eau de mer, vous allez avoir de l'évaporation, ce qui limite, en fait, le réchauffement de surface. Quand vous réchauffez les sols, quand les sols se vit de dos, on peut avoir une amplification du réchauffement au-dessus de ces sols secs. Ensuite, on a une forte amplification autour de l'arctique, et là, c'est l'effet de miroir des zones enneigées et en glacées qui se réduit, ce qui amplifie le réchauffement dans ces régions. En ce qui concerne donc les changements du cycle de l'eau, on observe une augmentation des précipitations simulées dans la bande équatoriale, une tendance à la diminution de part et d'autre de l'équateur, et une augmentation des précipitations dans les moyennes et hautes latitudes des 2 hémisphères. Ce que j'ai voulu rajouter là, c'est un point important, ce sont des calculs. Qu'est-ce qu'ils ne prennent pas en compte ? Ils ne prennent pas en compte l'occurrence d'une éruption volcanique majeure ou la répétition d'une éruption volcanique majeure. Ils ne prennent pas en compte non plus le fait, évidemment, que d'une année à l'autre et d'une décennie à l'autre, on a une forte variabilité qui est inhérente aux interactions océan et atmosphère et qui sera présente et qui peut masquer ces tendances quand on regarde sur un intervalle de temps relativement restreint. L'évolution réelle du climat sera plus complexe que ces tendances linéaires, évidemment, qui sont présentées ici de manière peut-être simplifiée. Enfin, quel est le mécanisme à l'origine de la structure des changements de précipitations ? Ça tient vraiment au fonctionnement de l'atmosphère. L'atmosphère, en fait, elle est chauffée fortement près de l'équateur, on a de l'air qui va monter, on a de la condensation, donc de forte précipitation, et ensuite, on a deux cellules d'air sec qui vont redescendre de part et d'autre de l'équateur et donner lieu aux zones de climat semi-aride ou méditerranéen. Dans un climat qui serait chauffé, c'est cette cellule qu'on appelle la cellule de Hadlé s'élargit vers les régions tempérées, ce qui cause donc une bande un peu plus humide près de l'équateur et une bande de baisse de précipitation de part et d'autre de l'équateur. Donc, dans l'hétérogénéité que l'on observe entre les régions, on a des processus physiques qui tiennent au fonctionnement à grande échelle de la circulation et de la structure de l'atmosphère et qui permettent de donner sens aussi bien au changement observé, au simulation futur qu'à de grands aspects des changements passés à différentes échelles de temps. Et enfin, souvent, on entend dire qu'une des principales incertitudes sur l'évolution future du climat tient au rôle des nuages qui est mal compris. Alors qu'est-ce qu'on comprend de l'évolution du rôle des nuages ? Une augmentation de leur concentration dans une atmosphère qui se réchauffe au niveau de l'équateur. Des nuages hauts plus élevés et ceux-là ont un effet de serre important. Ils entraînent un réchauffement supplémentaire. À nos latitudes, plutôt un décalage des zones de vent de l'ouest. Donc, un décalage un peu vers le nord des bancs de nuageuse liés au passage des pressionnaires. Et comme ils se décalent vers le nord, ils réfléchissent un peu moins d'énergie solaire. Donc, c'est plutôt une tendance également à un effet positif sur le climat, mais cette fois-ci par un moindre effet miroir sur l'énergie solaire incidente. Et au final, l'effet net des nuages sur le changement climatique, on conclut qu'il est probablement positif. Et malgré les incertitudes sur la distribution statistique des particules de glace ou des gouttelettes d'eau qui ne sont pas simulées correctement dans les modèles de climat, un certain nombre de ces facteurs, ils sont liés à des effets de circulation de grande échelle, dont on pense qu'on les comprend au premier ordre relativement bien. Et puis donc, des changements également sur certains événements extrêmes. Alors, je vais passer rapidement, mais le premier point, c'est qu'il est très probable que les vagues de chaleur seront plus fréquentes et dureront plus longtemps, également d'aucune augmentation du risque de sécheresse en extension spatiale, en intensité et en fréquence. Et enfin, ce rapport conclut également à un risque d'augmentation de l'intensité des précipitations les plus fortes. Et sur tous ces aspects, évidemment, il y a toute une communauté de statisticiens qui travaillent spécifiquement sur ces questions climatiques et qui appliquent des théories des événements extrêmes ou des records par rapport à ces aspects-là, qui posent également un certain nombre d'enjeux en matière sur certains secteurs industriels, comme le secteur de l'assurance ou de la réassurance, comment intégrer le fait que l'ALEA change au cours du temps dans un certain nombre d'aspects de calcul. Alors, dans certaines régions, on simule des changements majeurs, et c'est le cas de l'Arctique. Dans le scénario bas, on conserverait, en été, une partie de glace de mer sur l'océan Arctique. Dans le scénario haut, à horizon 2080-2100, tous les modèles de climat montrent une disparition de la couverture de banquise en été, mais elle se reformerait en hiver plus fines, plus réactives. Alors là, c'est une vraie question. Pour tous les autres calculs que je vous ai montrés, on a respecté une forme de démocratie des modèles, c'est-à-dire tous les groupes de modélisation participent à des exercices d'intercompéraison standardisés et on représente les résultats de tous les calculs. Mais on sait très bien que pour un facteur donné, certains modèles de climat ont une performance meilleure que d'autres. Alors c'est pas toujours évident, parfois, et c'est un résultat qui est très difficile à entendre pour des collègues physiciens, mais parfois, la moyenne de tous ces modèles a une performance meilleure que chacun d'entre eux prie indépendamment. Et ça pose un certain nombre de questions sur comment on utilise ces résultats, lesquels prendre, comment les pondérer, quelle confiance le raccorder. Pour la glace de mer, ce qui a été fait là, c'est représenter tous les modèles en bleu et en rouge, le sous-groupe de cinq simulations qui donnent les résultats les moins mauvais sur la période la plus récente. Donc en fait, on a un fort recul observé de l'extension de banquises. On prend les modèles qui simulent le déclin le plus rapide, en fait. Et on regarde, dans ce cas-là, pour ce sous-groupe à quelle vitesse on va déglacer l'arctique, pour faire simple. Et dans ce cas-là, on arrive à un résultat que ce sera probablement dans les années 2040-2050. C'est vraiment quelque chose qui est en cours de réflexion sur la manière d'utiliser et la confiance qu'on peut accorder au tri fait parmi ces modèles de climat. Est-ce qu'on le fait de cette manière-là pour de bonnes raisons ou pas ? Dans l'évolution récente de la banquise arctique, on a certains modes de variabilité de la circulation atmosphérique qui jouent à rôle clé. Est-ce que ça, c'est une réponse à l'impact des gaz à effet de serre ou c'est juste une coïncidence entre l'ALEA de la circulation météorologique et la réponse au gaz à effet de serre ? Et selon, en fait, cette analyse, vous allez pondérer d'une manière ou d'une autre les différentes simulations existantes. Toujours est-il que le message clé, il faut regarder l'ensemble des simulations qui existent et pas une seule parce qu'il y a une grande dispersion d'un résultat à l'autre. Enfin, pour terminer, un climat qui change, c'est aussi un climat où on va perturber profondément le cycle du carbone, perturber profondément la chimie de l'océan avec, dans le scénario, un pH de l'eau de mer qui perdrait 0,3 unités avec des impacts considérables probablement sur les écosystèmes marins et encore difficiles à anticiper. Et puis, c'est également un climat où le niveau des mers continuerait à monter. Donc là, ce sont les scénarios d'évolution future du niveau des mers dans le scénario bas, environ 40 cm de plus à horizon 2100, dans le scénario le plus bas, dans le scénario le plus haut autour de 75 cm et on ne peut pas exclure un mètre de plus à horizon 2100, un à trois mètres à horizon 2300. Principal interrogation, le temps de réponse et la vulnérabilité des glaces de l'Antarctique n'ont pas dans la partie fonte, mais dans la partie écoulement, écoulement accéléré. Très difficile à modéliser, avec une vraie révolution sur la modélisation numérique, des fleuves de glace rapide, par exemple, pour l'Antarctique. Et enfin, donc, le point clé de ce rapport, je pense, c'est finalement le plus simple. Vous voyez qu'on essaie de représenter un certain nombre d'interactions liées aux rétroactions des nuages, de la vapeur d'eau, aux interactions au séance atmosphère et aux couplages entre le climat et le cycle du carbone, mais à travers toutes ces simulations, on arrive à un résultat quand, en fait, assez simple, un peu linéaire, vous voyez, qui est le suivant. Dans tous les calculs, finalement, on a une relation linéaire entre les émissions cumulées de dioxyde de carbone ici, entre 1870 et le présent et le futur, et l'évolution de la température planétaire. Donc finalement, ce qui compte, ce n'est pas la trajectoire des émissions, c'est le cumul, l'intégral. Et vous voyez donc que cette courbe, elle peut se traduire assez facilement. Vous voulez que le climat ne se réchauffe pas plus de 2 degrés. Si avec le CO2, il ne faudrait pas émettre plus de 1000 gigatonnes, il y a d'autres gaz à effet de serre, ça ramène à 800. On est à plus de 500 aujourd'hui, au rythme actuel d'augmentation des émissions, dans 30 ans, on aura dépassé ce cumul. Donc ça, c'est finalement un constat qui est assez simple et qui montre à quel point aussi ce cumul d'émissions, c'est quelque chose qu'on se passe d'une génération à l'autre. Et je vais finir sur ce graphique-là. Souvent, vous savez, les politiques, ils aiment bien le temps très court, le mandat, c'est 5 ans. Et ils aiment bien mettre en place des politiques où on puisse mesurer les fruits de l'action sur un temps court. Et une vraie difficulté sur la question du climat, c'est que le dioxyde de carbone, il a une durée de vie longue dans l'atmosphère. Typiquement, si on injecte 500 pétagrammes de carbone l'année zéro, on en retrouvera encore 40 % 1 000 ans plus tard dans l'atmosphère. Et ça, ce n'est pas quelque chose qui est communément rapporté. Et je pense qu'au-delà de la question des impacts du changement climatique chez nous et demain, parce que c'est souvent ce qui est demandé concrètement, est-ce que nous, on va être concerné de quelle manière. Il y a aussi cette question de l'irréversibilité et des conséquences à long terme qui sont, je pense, un aspect important. Merci de votre attention. Pour cette exposé, est-ce qu'il y a des questions ? Mais quand vous faites allusion au palais au climat, comment on explique les variations de température et de précipitation, par exemple à l'époque d'un empire romain, et l'arité croissante du Sahara, par exemple, puisque les gens romaines faisaient 1 000 km à l'intérieur de la Libye pour faire de la répression. Avec les boincans qu'ils avaient, on les voit difficilement dans le climat actuel, faire les 1 000 km de la même façon pour citer un exemple, quoi. Ou également les Vikings et le Groenland. La guerre verte. Donc premier exemple, le Sahara. Donc on a au Sahara un certain nombre de vestiges qui témoignent de conditions plus humides. Il y a plusieurs millénaires. Le plus spectaculaire, ce sont des vestiges de lacs asséchés et toute la faune associée, ou les gravures rupestres que l'on peut trouver dans les grottes du Tassili ou ailleurs. À partir de l'étude de ces sédiments de lacs, à partir des assemblages des pollènes, on peut quantifier et représenter spatialement les changements de précipitation au cours du temps. On a également des données dans les carottes marines qui nous permettent d'estimer le débit d'une île et d'un certain nombre de grands fleuves. Alors ce qu'on comprend, c'est qu'au cours du temps, la position de la Terre sur son orbite autour du Soleil change régulièrement. Ça module la répartition de l'énergie solaire selon les saisons, selon les latitudes. Cette répartition de l'énergie solaire, elle joue un rôle clé sur le contraste de température dans les tropiques entre les continents et les océans. C'est à l'origine des moussons. C'est une sorte de brise de mer géante, en fait, dans les moussons. Donc entre 15 000 ans et 5 000 ans, on a eu un épisode qu'on appelle le Sahara vert avec des zones humides sur des territoires aujourd'hui semi-arides. Et puis ensuite, depuis 5 000 ans, une tendance à l'asséchement graduel, assez fluctuant. Donc ça, c'est quelque chose qu'on connaît bien, c'est quelque chose qu'on observe et on le simule avec les mêmes modèles de climat. Donc on peut le simuler jusqu'à la période romaine, etc. Sachant que dans la réponse du climat régional dans ce cas-là, on a une mémoire par les eaux profondes. C'est-à-dire que les eaux souterraines accumulées pendant des périodes de moussons plus intenses vont permettre de garder finalement en surface des conditions plus humides un peu plus longtemps. Donc voilà, ça, c'est quelque chose qui est assez bien compris, je dirais. Alors maintenant, période du Groenland d'hiver. Donc l'Island, terre de glace, et le Groenland, terre verte, faut pas se fier au nom. Donc l'Island n'était pas complètement englassé, il y a eu une agriculture qui s'est mise en place. Certains vikings violents ont été chassés. Donc Eric Le Rouge a été au Groenland dans les années 980. Et en fait, les premiers colons de trois bateaux partis étaient en trop petit nombre pour construire une société autosuffisante. Donc il est reparti au Groenland pour chercher des colons et il a eu cette idée géniale d'appeler le Groenland de la terre verte. C'est une publicité mensongère qui a eu un succès millénaire, je dirais. Donc on a, je dirais, une quarantaine de forages dans les glaces du Groenland, la calotte, qui montre que la calotte était la même de il y a mille ans qu'aujourd'hui. On a également des forages dans les lacs du sud du Groenland qui nous montrent que c'était la même végétation qu'aujourd'hui. Et donc on a une petite bande côtière au sud du Groenland avec un climat propice à une agriculture de type élevage de mouton qui se fait d'ailleurs aujourd'hui dans les mêmes endroits que les fermes vikings. Par contre, ce que je voulais montrer, juste rapidement parce que j'en profite, ça, c'est la courbe de hoquet. Vous en avez certainement entendu parler. Depuis mille ans jusqu'à aujourd'hui, la tête des estimations passées de température avec une diminution lente et puis cette rupture avec le réchauffement récent. Et tout le débat, c'était quelle statistique on applique sur peu de série temporelle pour estimer la température de l'hémisphère nord. Donc on a des statisticiens comme quelqu'un qui s'appelle McIntyre, qui a un blog climatosceptique, en fait, qui a été reprendre toutes les données et montrer qu'il y avait parfois des failles dans les méthodes statistiques employées, etc. Et ça a permis en fait à plus de groupes de contribuer à cet effort avec ce résultat de spaghettis que vous voyez là. Et moi, je pense que là, le progrès ne vient pas des méthodes statistiques employées parce que ce qui limite, c'est les données sources disponibles. C'est le peu de données, finalement, une dizaine de séries qui remontent à la période médiévale. Et donc le progrès de ma communauté sur cette question, c'est pour chaque région, là, Amérique du Nord, Europe, Arctique, Asie, etc., de faire le même exercice, mais donc de faire des reconstructions régionales, des conditions climatiques. Et vous voyez là celle pour l'Arctique avec, donc, depuis à peu près 1000 ans, un léger tendance au refroidissement. C'est encore une fois l'effet de l'orbite de la Terre qui change. Même on le voit sur une échelle de 1000 ans. Plus l'effet des ruptions volcaniques qui refroidissent un peu plus l'Arctique que d'autres régions. Et puis on voit cette rupture aussi avec le climat récent et ce réchauffement qui sort en Arctique, très nettement, de la gamme de variations intérieures. Donc ça, c'est juste la partie paléo-climatologie. Et ce qui est intéressant, je pense, pour, par exemple, des événements extrêmes, vagues de chaleur, crues ou autres, c'est ce temps long qu'on peut offrir et qui permet d'avoir, d'étudier les temps de retour sur plusieurs siècles, qu'on ne peut estimer que par des méthodes un peu probabilistes quand on a des données météo que sur 50 ou 100 ans. Et donc c'est quelque chose qui se construit à l'interface entre histoire, paléo-climatologie et puis modélisation du climat. Ce qu'en fait, il y a des courbes-là qui sont des résultats de simulation aussi et qui sont en assez bon accord avec les informations disponibles. Merci, ce qui est encore une question. De point, donc pour la simulation numérique, vous avez dit que les résultats sont concordants avec des estimations plus... Un grossière, je veux dire, entre guillemets. Mais est-ce qu'elles ne vont pas permettre d'avoir, de pouvoir régionaliser les prévisions ? Parce que plus on pourra diminuer les tailles de maille, mieux on pourra coller à la réalité. Premier point. Et deuxième point, pour la variabilité du climat, vous n'avez pas du tout mentionné l'aspect chaotique du système dynamique constitué par l'atmosphère. Oui, donc sur le premier point, évidemment, il y a tout un travail qui est fait de régionalisation des résultats avec parfois des méthodes purement statistiques et puis parfois des modèles en boîte imbriquées, globaux et puis ensuite régionaux. Et il y a une vraie réflexion qui est en cours sur finalement les limites, je dirais, de chacune des approches. Est-ce que quand vous caler votre méthode statistique de régionalisation sur les derniers 50 ans, elle reste valable dans un climat avec beaucoup plus de CO2 ou les profils verticaux d'humidité ou de température changent, par exemple ? Alors ce qui est au coeur de ces questions, c'est des processus de petite échelle comme la convection. Et même pour la modélisation de la convection, maintenant, les modèles de climat vont intégrer des générateurs en fait, probabilistes finalement, ce qui est plus juste que ce qui était fait jusqu'à présent. Donc ce sont des initiatives, évidemment, tout à fait en cours, de plein de directions, je dirais, avec des hypothèses sous-jacentes qui ne sont pas toujours complètement évaluées, en particulier la validité des calibrations par rapport au champ d'application. Ça, c'était la première question et la deuxième, rappelez-la moi. Ah oui, le caractère chaotique, évidemment, c'est la question de la limite à la prédictabilité. C'est vraiment une question importante. Et aussi bien qu'à l'échelle planétaire, sur des échelles de temps de 30 ans ou plus, ce sont les perturbations radiatives qui vont dominer. Autant, sur des échelles de temps plus courtes, c'est effectivement ce caractère chaotique, en particulier des interactions tropicales d'ondes qui sont à l'origine des événements de type El Nino-La Nina. Donc, pour l'instant, on en est à... Quand on détecte l'événement qui se démarre, on peut anticiper son évolution sur quelques mois, ce qui est plutôt puissant par rapport à l'adaptation de la gestion de l'eau ou du secteur agricole. Par contre, comment prendre en compte, en utilisant ces modèles de climat, donc leur enveloppe, comment prendre en compte cet aléa en plus, puisqu'il n'est pas intégré forcément de manière très réaliste. Chaque modèle produit une variabilité, mais qui n'est pas exactement la même que celle qui est observée. Ca, c'est vraiment un point énorme à construire pour qu'on guide des politiques d'adaptation de manière la plus juste possible. Je peux donner un exemple qui est celui de l'Arizona. Donc, en Arizona, le problème, c'est la gestion de l'eau. Les modèles de climat ont des limites dans leur capacité à simuler la précipitation et sa variabilité. Ce qui est construit, c'est une méthode qui intègre des données paléo-climatiques, justement, sur les derniers millons et la variabilité qu'on connaît. Comment l'ajouter, finalement, sur les scénarios et construire une estimation plus juste de l'incertitude totale sur un an, sur cinq ans, sur dix ans, sur quinze ans ? Merci bien. Leur tourne, donc malheureusement, je crois qu'on va s'arrêter pour les questions. On vous retrouve tout à l'heure à partir de 14 heures, et on me signale juste de vous redire qu'il faut bien garder son pins pour revenir tout à l'heure au moment de la suite des exposés. Bon appétit à tous. Merci.