Overblog Suivre ce blog
Editer l'article Administration Créer mon blog
21 mai 2010 5 21 /05 /mai /2010 10:00
De retour sur ce blog après qq semaines d'absence. Entre-temps il y a notamment eu l'EGU à Vienne - avec cette année son  "Great Debate" sur "To what extent are humans affecting the climate"... - plus sérieusement, cette année parmi les innombrables sessions il y avait notamment pas mal de choses sur la variabilité climatique du dernier millénaire (du projet MILLENIUM notamment) - avec des modèles couplés qui commencent à être capables de faire des simulations sur le dernier millénaire en entier, en intégrant l'ensemble des forcages (alors qu'on se limitait surtout avant au dernier siècle)... Je me suis aussi retrouvé un peu par hasard dans une session sur la prévision décennale - ce qui me donne, donc, l'opportunité (mais dieu que cette introduction est laborieuse...) de placer ce petit post, pour résumer un peu la question - ou du moins ce que j'en ai compris.

Le type de prévision du système climatique qui nous est la plus familière est bien sûr la prévision météo. Il s'agit surtout d'un problème de conditions initiales: connaissant un état observé à l'instant t  de l'atmosphère, les lois de la dynamique des fluides et de la physique permettent de prévoir l'état à t+1 - un modèle de circulation atmosphérique étant bien entendu nécessaire pour la mise en équation et le calcul. La connaissance plus ou moins bonne de l'état initial joue un grand rôle dans la qualité de la prédiction. Mais, aussi bien que soit connu cet état t, il arrivera toujours un moment  t+n où la moindre différence numérique, de la moindre variable, entre 2 états initiaux t, aboutira à des états "finaux" entièrement différents: c'est le fameux effet papillon - le fait que la moindre erreur de départ se propage et "contamine" inéluctablement tout le système. Autrement dit la météo est chaotique, et le temps qu'il fera ne pourra certainement, grosso modo, jamais être prévu de façon déterministe à plus de 15 jours.

On pourrait dire, en revanche, que la prévision du climat est davantage une question de conditions aux limites: sachant les forces qui s'appliquent au système (par exemple un effet de serre additionnel d'origine anthropique), comment celui-ci évolue-t-il ?  la connaissance des conditions initiales ne jouent plus un grand rôle ici - on pourrait considérer qu'il s'agit en fait davantage d'études de sensibilité (voir aussi ici). Ainsi les projections climatiques (et non, au sens déterministe, prédictions) réalisées avec des modèles couplés atmosphère/océan ne démarrent-elles pas à partir d'un état réel de l'atmosphère et de l'océan - qui correspondrait à celui observé le jour où la simulation est censée débuter - elles démarrent à partir d'un état moyen du modèle, qui simule en quelques sortes "son" propre climat à l"équilibre avec des forcages extérieurs donnés ( par exemple pré-industriels). Evidemment cet état moyen se doit de ressembler le plus possible à l'état moyen du monde réel, pour que la réponse du modèle à un forcage inspire un minimum confiance... mais il y a bien entendu des biais (une région trop chaude ici, trop froide là, un pattern atmosphérique mal placé, ou insuffisant, etc.)
Une des conséquences de ceci est qu'il est inutile, en particulier, de chercher une corrélation interannuelle précise entre une trajectoire métérologique particulière d'un modèle (par exemple les t° globales annuelles depuis 1990) et la trajectoire du monde réel ( par exemple la T° globale observée depuis 1990, donc): il faut comparer la réponse forcée - donc, la tendance en°C/décennies, au-delà de la variabilité interannuelle "naturelle". 

Evidemment, au jour le jour, cela n'est pas très satisfaisant dans le suivi du réchauffement climatique: discerner une tendance dans les observations, confrontable aux modèles, prend du temps, et on aimerait  avoir des informations plus directement "utiles" que des tendances moyennes d'ici à 2100. Par exemple que va-t-il se passer dans la prochaine décennie - voire à l'horizon 2030 ?
En plus de l'intérêt scientifique intrinsèque de cette question, la forte attente du public et des décideurs sur ce sujet, naturellement, incite fortement les climatologues à se pencher sur la prévision décennale, qui peut potentiellement permettre d'apporter des éléments de réponse à ces questions.
Le principe en est finalement assez simple: en initialisant l'océan, dans le modèle,  aux valeurs observées actuelles - de façon assez prolongée, sur plusieurs années - on espère que la trajectoire précise du modèle sur quelques années, lorsqu'on va le "lacher", fournira une information sur la trajectoire précise du monde réel - variabilité naturelle comprise. Ceci car la mémoire du système, sur ces échelles de temps là, se trouve essentiellement dans l'océan. Dans la pratique, on initialise surtout les T° de surface de l'océan, parce qu'on a de bonnes observation interannuelles, mais en théorie il faudrait aussi intialiser en salinité par ex. Enfin, bien entendu, on force aussi le modèle par les forcages "prévus" ( faute de savoir ce qu'ils seront réellement, mais il faut bien faire qqch): gaz à effet de serre, cycle solaire - qui sont responsables d'un part de la variabilité même à court terme.
Evidemment, il n'est pas question avec cette méthode de prévoir aujourd'hui le El Nino de 2012 ou 2014 - plus simplement , d'essayer de voir si la décennie qui vient va être plutôt plus chaude ou plus froide que la tendance moyenne prévue, par exemple.
Un des problèmes bien sûr, c'est à nouveau l'existence de ces biais dans l'état moyen du modèle: si le modèle est initialisé sur les observations, lorsqu'on va le lacher, la première réponse qu'on risque d'observer c'est ... que le modèle recréé ses biais, bien sûr. Donc la projection ne sera pas vraiment exploitable. Après, bien sûr, tout dépend de la vitesse avec laquelle le modèle va se remettre à dériver, par rapport à l'échéance de la prévision visée - vitesse qui peut dépendre dans le modèle de la région considérée.... Bref. Pour remédier à ce pb, on peut aussi bien sûr penser à initialiser en anomalies relatives et non en valeurs absolues - on impose à l'état moyen du modèle des anomalies observées, ce qui "choque" moins le modèle: son état moyen reste le même, donc il ne risque pas de dériver lorsqu'on va le lâcher. Mais cela pose alors d'autres problèmes: par exemple imaginons une anomalie observée de T° sur le Gulf Stream - si on prescrit cette anomalie dans le modèle, mais que dans le modèle il se trouve que le Gulf Stream est de façon générale décalé vers le Sud (un biais) , eh bien on se retrouve à prescrire l'anomalie "à côté" et on en perd le sens physique dans le système...  Bref - la question n'est pas simple. Un autre problème est: faut-il - et peut-on - initialiser l'océan en profondeur, au-delà des températures de surface ? A priori cela semble une bonne chose à faire. Certains adoptent cette approche ( par exemple Smith et al. 2007, qui sont donc les premiers à avoir sorti un papier avec un système de prévi décennale), mais d'autres en restent à prescrire simplement les T° de surface -  avec l'idée: moins on prescrit, moins on fait d'erreur, en fait (par exemple Keenlyside et al. 2008 - c'est aussi ce qui se fait à l'IPSL sur le sujet).
On notera que pour l'instant, les résultats publiés de modélisation décennale sont un peu contradictoires...
Tout ce laius, pour dire que la prévision décennale reste fondamentalement quelque chose de très expérimental, qui a autant voire davantage pour but de permettre d'analyser le fonctionnement et les erreurs des modèles, que de fournir des informations effectives sur le monde réel. C'est aussi, fatalement, qqch qui reste mal compris du grand public, qui se retrouve au final confronté maintenant à une gamme de prévision (météo, saisonnière, décennale, climatique) dont les fondements sont différents, et dont les résultats doivent être interprétés de façon différentes (et avec différents degrés de confiance).  Enfin, c'est aussi quelque chose qui - quelle ironie - est exploité à foison par les sceptiques qui brandissent haut et fort et avec une foi inébranlable, et souvent en les exagérant, les prévisions d'un refroidissement/stagnation décennal de l'équipe de Keenlyside et Mojib Latif - sans voir bien entendu que ces résultats sont obtenus à partir d'une utilisation encore plus expérimentale et incertaine de ces exacts mêmes modèles qui ne sont censés être que des délires de climato-alarmistes mafieux lorsqu'ils prévoient un réchauffement global de plusieurs degrés sur un siècle... Bref. Le prochain exercice de l'IPCC, en tout cas, pour 20131-2014, devrait théoriquement regrouper des simulations décennales de l'ensemble des groupes de modélisations à travers le monde - c'est du moins le cahier des charges. Ce qui permettra peut-être d'y voir plus clair.

Partager cet article

Repost 0
Published by ICE
commenter cet article

commentaires

zizou 25/05/2010 22:11


avec des modèles couplés qui commencent à être capables de faire des simulations sur le dernier millénaire en entier, en intégrant l'ensemble des forcages (alors qu'on se limitait surtout avant au
dernier siècle)...-----------------------------------
Faudrait déjà se mettre d'accord sur ce que ces modèles doivent simuler


sirius 24/05/2010 12:05


Un papier qui a le mérite de la clarté. Bravo!
Une remarque:il me semble que c'est en partie à ce sujet que Trenberth met en garde contre le risque (politique au sens de a compréhension citoyenne) que fera courir une dispersion accrue des
résultats des simulations de l'AR5. L'autre aspect étant le couplage de processus additionnels (ex chimie ). On est d'accord ?

Je doute fort que les prévis décennales convergent surtout dans un premier temps. Compte tenu de la difficulté à faire passer la notion de projection climatique, il y a un risque réel
d'incompréhension.

Ceci dit, je suis d'accord: il faut le faire, bien évidemment.


ICE 25/05/2010 15:01



Merci.


Je crois pas avoir lu en détail ce que disait Trenberth, mais en effet ca doit pouvoir concerner aussi bien les previ décennales - effectivement ca serait surprenant qu'elles convergent... - que
les modeles couples climat carbone (azote..)  avec végétation interactive etc etc...


un autre truc qui m'"interroge" c'est qu'apparemment pour l'AR5 on a abandonné l'approche par scenario economique avec les scenarios A1B, A2, B1, etc... Ca va pas faciliter la comparaison avec
les résultats des précédents rapports.



o 22/05/2010 14:49


RC a egalement un article sur le sujet
http://www.realclimate.org/index.php/archives/2009/09/decadal-predictions/


ICE 25/05/2010 14:55



En effet. Je suis rassuré de voir qu'on dit environ la meme chose - mais bien sur ils le disent mieux...



yan_g 21/05/2010 15:44


Content de votre retour Ice, article très intéressant!


  • : Le blog de ICE
  • Le blog de ICE
  • : Actualité, réflexion autour du changement climatique, de l'énergie, de l'environnement...
  • Contact

Texte Libre











Archives