lundi 12 mars 2012

Prof. Henri Masson, Université d’Anvers, déclare les modèles du GIEC « aberration statistique »

« Des modèles, cela fait 40 ans que j’en fais », précise d’emblée Henri Masson. Ingénieur chimiste de formation (Université Libre de Bruxelles), docteur en sciences appliquées, professeur émérite à l’Université d’Anvers, expert globe-trotter (notamment pour la Banque Mondiale et l’ONU), l’homme est, de surcroît, doté d’un sérieux sens de la vulgarisation.

Lorsque Contrepoints lui propose d’analyser les modèles prédictifs du GIEC, le Belge est catégorique : « Si mes étudiants me présentaient de tels modèles, je n’hésiterais pas à les recaler! »

Contrepoints — Quelle confiance peut-on accorder aux modèles du GIEC, qui prévoient, parmi d’autres choses, un réchauffement planétaire dû aux émissions humaines de CO2 ?

Henri Masson — Un modèle informatique consiste en un certain nombre d’équations décrivant plusieurs phénomènes que l’on essaye de prendre en considération. La liste de ces phénomènes est forcément limitée par l’imagination de l’auteur, les capacités de la machine, voire ce qu’il veut essayer de démontrer. Le GIEC veut démontrer l’existence d’une origine anthropique de l’augmentation de CO2, à travers un modèle d’effet de serre. Les modèles du GIEC sont donc quasi exclusivement centrés sur une description de l’effet de serre à travers des effets radiatifs et l’absorption du rayonnement infra-rouge par le CO2. Les autres phénomènes, traités comme des paramètres ajustables (des « forçages ») interviennent, eux, en fin de calcul pour amplifier ou réduire l’effet du CO2. Quelle que soit la sophistication du modèle, si l’on inscrit dans ses équations que la température doit augmenter lorsque la concentration en CO2 atmosphérique augmente, le modèle prédira bien sûr « automatiquement » que la température augmentera si la concentration en CO2 augmente, ce qui est le cas. Mais cela ne prouve strictement rien.

Par ailleurs, le modèle doit être calibré puis validé. Le calibrage se fait à partir d’une « ligne de base », les données de température du passé. Mais ces données sont malheureusement entachées de nombreuses approximations, voire d’erreurs expérimentales. En termes de programme informatique, il n’y a pas de miracle : si vous fournissez des données fantaisistes au départ, vous trouverez des résultats fantaisistes à la sortie. C’est la règle du « garbage in = garbage out ».

En outre, plus vous multipliez les paramètres, plus vous pouvez ajuster les résultats, sans que cela ne prouve que le dernier paramètre ajouté, (dans le cas des modèles du GIEC : le CO2 anthropique) soit le plus déterminant. Comme le disait John von Neumann, « donnez-moi quatre paramètres, et je vous dessine un éléphant. Donnez m’en cinq et il remuera la trompe ».

Contrepoints — En quoi ces modèles se trompent-ils ?

Henri Masson — Précisément, un modèle doit-être validé pour être un tant soit peu crédible. La validation se fait, par exemple, en confrontant les prévisions du modèle pour la dernière décennie écoulée, avec ce qui a été réellement observé. Eh bien cela ne colle pas du tout ! Je vous donne trois exemples parlant d’eux-mêmes: les modèles prédisent l’existence d’un point chaud dans la stratosphère intertropicale, à une altitude comprise entre 9 à 12 kilomètres. Ce point chaud est supposé être la « signature de l’effet de serre ». Or, ni les satellites ni les ballons sondes n’ont encore réussi à le détecter. Ce point est illustré par les figures 1 et 2 ci-dessous, provenant de textes officiels du GIEC.

Prédictions


Fig. 1 — Prédiction du modèle GH ; Changement dans les anomalies de température en fonction de la latitude et de l’altitude (source: figure 1.3F du CCSP 2006, p.25]).


Réalité


Fig. 2 — Évolution des anomalies de températures observées en fonction de la latitude et de l’altitude (source: figure 5.7E du CCSP 2006, p. 116). (Pas de données de radio-sonde disponible pour le carré blanc dans l’hémisphère sud)


Ensuite, le système climatique présente un caractère oscillatoire. Il est remarquable de constater que systématiquement les points présentant une anomalie de température positive une année (correspondant à un réchauffement) présentent quasi systématiquement une anomalie négative l’année suivante et vice-versa, comme illustré à la figure 3.


Fig. 3 – Comparaison des anomalies de température sur l’hémisphère Nord, sur la même période, deux années consécutives (source: NOAA Climate Service ). À gauche du 1er novembre au 15 nécembre 2010. En situation d’Oscillation arctique négative (AO-). À droite du 1 er  novembre au 15 nécembre 2011. En situation d’Oscillation arctique positive (AO+). Note : l’échelle des températures anglo-saxonne (en Fahrenheit) est liée à l’échelle de température Celsius par la relation °C = 5 / 9 x (°F - 32). Pour les anomalies de température, le facteur de conversion est 5/9 (il s’agit de différences de température)


Un tel comportement oscillatoire ne peut se produire que dans un système non linéaire, et ne peut en aucun cas être lié aux émissions de CO2, puisque ces dernières ne font que progresser de façon monotone, d’année en année.

Enfin, si l’on se réfère aux quatre organismes officiels chargés de relever les températures à la surface du globe (organismes servant de référence au GIEC), on ne trouve aucune trace d’un réchauffement significatif sur les dix dernières années (fig. 4). Nous sommes actuellement sur un plateau de températures, voire une légère descente, et pas sur une courbe ascendante régulière. Je pense qu’il n’est pas improbable, bien au contraire, que la température se refroidisse considérablement au cours des décennies à venir.


Fig. 4 – Évolution des anomalies de température fournies par 4 banques de données officielles, après homogénéisation (source: site interactif)

Lire la suite.






Soutenons les familles dans leurs combats juridiques (reçu fiscal pour tout don supérieur à 50 $)

Aucun commentaire: