Les inondations en France en juin 2016 sont-elles dues au réchauffement climatique ?

Selon le président de la République, François Hollande, les fortes pluies et les inondations montrent l’importance de lutter contre le réchauffement climatique.

Oui il faut lutter contre le réchauffement climatique dans la mesure du possible.Mais le lien entre le réchauffement climatique et les inondations qui saccagent la France en juin 2016 n’est pas démontré.

Au cours du 20e siècle, la Seine connut plusieurs crues : en 1910, en 1924, en 1945, en 1954 et 1955, et en 1982.

Mais ce que les médias ne soulignent pas, c’est que les inondations et les crues, même en France et pas seulement dans les pays tropicaux, ont toujours existé.

  • L’Histoire de France révèle que la Seine a eu des crues en 583 (sous le règne de Chilpéric, roi franc mérovingien), qui fut la première crue mentionnée touchant Paris et les communes au bord du fleuve. En 1658 (sous le règne de Louis XIV), ce fut la plus haute crue connue (39 cm de plus qu’en 1910), ce fut une crue grave car le pont Marie fut emporté par le fleuve. En 1740 (sous le règne de Louis XV), une crue de la Seine fut mémorable. En 1876 (au début de la 3e République), toutes les îles de la Seine furent inondées. Bref, avant l’ère industrielle, ces crues existaient déjà et ne sont pas dues au réchauffement climatique.

 

  • En 1910, la hauteur de la crue a atteint son maximum avec 24,30 mètres à Andrésy.
    Depuis l’aménagement de la Seine en amont de Paris, les crues de 1945, 1954 et 1955 furent modérées.

En 2016, il ne faut pas se fier à la hauteur de la crue au niveau de la statue du zouave du pont de l’Alma, car les médias ne souligne pas (encore !) un détail qui a son importance : de 1970 à 1974, le pont de l’Alma (construit en 1856) fut reconstruit du fait de l’étroitesse et du tassement du pont d’origine, ce qui redéfinit le véritable niveau des eaux lors des crues postérieures aux années 1970…

Les crues ont toujours existé. N’oubliez pas les crues du Nil, utilisées par les Égyptiens de l’Antiquité, pour l’agriculture. Voir ici : https://fr.wikipedia.org/wiki/Nil#Le_r.C3.B4le_du_Nil_dans_la_fondation_de_la_civilisation_.C3.A9gyptienne

 

John Philip C. Manson

 

Publicités

Le catastrophisme, c’est du réchauffé

LIENS À LIRE :

 

Sur le consensus scientifique

Page intéressante. Elle dresse une liste de découvertes qui contredisent les croyances et les suppositions de leurs époques respectives.

Dans cette page, tout ce qui est décrit sur l’historique de la Terre plate, le géocentrisme, la théorie de l’évolution, la dérive des continents, le Big Bang et l’ère glaciaire est authentique.

Mais petit bémol : dans la terminologie du mot «ère glaciaire», c’est plus adapté pour l’ère glaciaire de Würm il y a 20000 ans, car concernant le vingtième siècle, quelques décennies ne définissent pas un climat planétaire. Un climat global, c’est sur une échelle de millénaires et de millions d’années.

Ensuite, au paragraphe sur E=MC², il est exact de dire que rien ne peut aller plus vite que la lumière, c’est le postulat de la théorie de la relativité, et la vitesse de la lumière a été fixée comme constante fondamentale en 1983 afin de définir le mètre à partir de l’unité du temps (la seconde). Cependant, quand l’auteur dit que certains scientifiques (lesquels ?) pensent avoir trouvé des particules (les tachyons ?) qui briseraient cette limite qu’est la célérité et qu’un autre (Alcubierre) prétend avoir trouvé une façon de voyager plus vite que la lumière. Pour rappel : les tachyons sont hypothétiques, l’espace-temps plissé d’Alcubierre (warp-driving) est hypothétique lui aussi. Les voyages interstellaires à très grande vitesse pourrait être un rêve impossible à réaliser : https://jpcmanson.wordpress.com/2013/03/12/de-limpossibilite-des-voyages-interstellaires-a-la-vitesse-de-la-lumiere/ Mais cela ne veut pas dire que les sceptiques affirment que les voyages supraluminiques n’existe pas. Cela veut dire qu’on ne peut pas savoir si c’est valide ou faux tant que des expériences n’auront pas été réalisées. On attend juste des preuves. Chaque découverte scientifique a été imprédictible  jusqu’au moment de ladite découverte. On ne sait pas ce que réservent les découvertes futures, rien ne penche en faveur d’une opinion ni d’une autre. On ne sait pas quand se fera une découverte scientifique, ni ce que sera la découverte scientifique. La méthode scientifique s’est consolidée seulement au vingtième siècle, grâce à Karl Popper qui a contribué à une avancée majeure, par le critère de réfutabilité. Avant Popper, la science était érigée en un système arbitraire de la vérité. On croyait auparavant que la science était la quête et la collection de vérités immuables et irréfutables. Le critère de réfutabilité a révolutionné la science moderne : les théories sont des représentations faillibles de la réalité, les théories sont (au mieux) crédibles mais elles ne sont pas LA réalité. La réfutabilité établit la faillibilité des connaissances. Nous ne savons rien de la réalité, nous n’avons que des modèles scientifiques, donc faillibles et réfutables. La science moderne, depuis Popper, ne construit pas des vérités, mais procède par élimination des hypothèses fausses quand celles-ci ont été réfutées à travers des observations ou des expériences. Une hypothèse est dite réfutable si elle a la potentialité d’être invalidée si ladite hypothèse est fausse, et une expérience scientifique doit donc permettre cette possibilité de pouvoir dire si l’hypothèse colle avec les faits OU si elle contredit les faits. Quand une hypothèse ne peut pas être testée, que l’on ne peut pas répondre par oui (ça colle) ou non (ça contredit), alors l’hypothèse n’est pas scientifique.

Voici une citation qui résume bien ce qu’est la science moderne grâce au critère de réfutabilité :

  • « La qualité d’une expérience se mesure au nombre de théories qu’elle fait tomber. » (d’après un professeur à Polytechnique et chercheur au CNRS)

Ensuite, à propos du paragraphe sur le multivers, il faut souligner que ce sujet pose un problème épistémologique. Avant Karl Popper, la science était scientiste, elle érigeait des découvertes (ainsi que les suppositions) en vérités définitives. Les grecs antiques, eux, se basaient généralement sur des concepts, pas sur des lois de la physique, à part quelques esprits scientifiques comme Ératosthène et Hipparque et d’autres. Que dit la science moderne ? La science se base sur la réfutabilité : une hypothèse doit pouvoir être testée expérimentalement ou via des observations, afin de l’infirmer si elle est fausse. Peut-on faire une observation ou une expérience pour observer des univers parallèles ? Apparemment, non. L’hypothèse des multivers est-elle scientifique ? La question vaut d’être posée. Je n’affirme pas que le multivers n’existe pas ni qu’il existe. Le multivers semble être une hypothèse qui ne peut pas être testée. On ne peut pas prouver qu’une hypothèse est fausse si on n’a pas la possibilité de faire une observation permettant la réfutation de l’hypothèse si celle-ci est fausse. En dehors du cadre de la science, on entre dans le domaine de la métaphysique. https://jpcmanson.wordpress.com/2013/03/19/les-univers-alternatifs-quest-ce-que-cest/

Ensuite, en ce qui concerne le voyage dans le temps, c’est possible d’après la théorie de la relativité, mais seulement pour aller vers le futur. Les satellites GPS ont un retard de quelques milliardièmes de seconde par rapport à nous : plus on se déplace vite par rapport à un référentiel, plus notre horloge retarde par rapport à celle du référentiel. Le voyage vers le passé pourrait être impossible à cause des paradoxes temporels. Mais on ne peut rien dire de concret tant qu’on n’a pas de réponse via des expériences.

Ensuite, l’auteur dit ceci, je cite : «Un consensus scientifique ça n’existe pas ! Les scientifiques sont constamment en train de mettre à l’épreuve une théorie. Chaque tentative qui n’est pas confirmée sert à renforcer la théorie originale, jusqu’à ce qu’on en trouve une qui arrive à la contredire.»  C’est exact. Je rajouterai cependant ceci : il suffit d’un seul contre-exemple factuel pour invalider complètement une hypothèse, voire une théorie entière.

Ensuite, les arguments sur la climatologie sont à nuancer. La température moyenne globale s’est bien élevée de 0,6°C sur les 100 dernières années, le réchauffement est une réalité, mais il n’est pas homogène, et il y a des choses à éclaircir. Pour résumer, le réchauffement climatique est une réalité, mais sa médiatisation comporte certaines maladresses et contre-vérités. On veut nous inoculer des certitudes, alors qu’il existe un certain nombre d’incertitudes. Il faut de la transparence, de l’intégrité intellectuelle par rapport aux faits, en totale indépendance de toute influence politique et de celle de groupes de pression comme les ONG. Il faut une démarcation entre ce qui est factuel, et ce qui est faux, en totale objectivité.

Il est difficile d’analyser tout ce qui se dit en climatologie. Mais je peux dire qu’il existe des failles. Celles-ci ne remettent pas en question la réalité du réchauffement climatique, mais la façade est quelque peu maquillée. Le journalisme met des titres racoleurs et alarmistes, la peur fait vendre, c’est une recette qui marche…

Articles internes :

L’objectif n’est pas de nier en bloc le réchauffement climatique parce que l’on n’y croit pas. L’enjeu, c’est de démêler le vrai du faux, il faut un dépoussiérage (au plumeau ou au kärcher ?).

iconlol

Suite ici : https://jpcmanson.wordpress.com/2013/04/17/sur-le-consensus-scientifique-suite-via-facebook/

 

cheval

Les théories scientifiques c’est comme les lasagnes au «bœuf» : c’est faillible, donc il faut analyser.

© 2013 John Philip C. Manson

Les poissons rétréciront-ils de 25% à cause du réchauffement climatique ?

  • Vu dans un magazine TV (TP n°2461 de la semaine du 13 au 19 avril 2013 :

poissons-eauchaude

Analyse du texte de l’image :

  • «D’ici à 2050, les poissons pourraient perdre un quart de leur poids actuel» à cause de l’augmentation des températures faisant diminuer la teneur en oxygène dans l’eau. Il ne s’agit pas d’une observation, mais d’une prédiction marquée par l’emploi du conditionnel. Donc il s’agit d’une hypothèse, pas d’une connaissance établie. Je trouve que, de plus en plus, la vulgarisation scientifique se réduit à remplacer les connaissances par des hypothèses déguisées en vérités : on remarque ici l’emploi du conditionnel (« les poissons pourraient« ), et la suggestion est suivie de l’emploi du futur présenté comme une certitude (« ce qui aura pour conséquence »). Je récuse ce genre de procédé sémantique…
  • Le taux en oxygène dans l’eau baisse effectivement avec l’élévation de la température de l’eau. D’autres causes sont néanmoins possibles, dont la surpêche.
  • L’activité piscicole influe sur la taille (et donc le poids) des poissons : par exemple, un banc de sardines dans une région sans pêche se caractérise par des sardines pouvant atteindre 17,5 cm de longueur (http://fr.wikipedia.org/wiki/Sardine#Reproduction), tandis qu’une pêche réglementée sur un banc de sardines se caractérisera par des sardines dont la longueur exploitable doit être au-moins de 11 cm. (http://ycaa.assoc.pagespro-orange.fr/concours/poistaille.htm). Ainsi, dans le cas de la sardine commune, le fait de passer de la non-pêche à la pêche fait diminuer la longueur des sardines jusqu’à environ 37%, ce qui suggère une baisse du poids presque équivalente. Indépendamment de toute variation de température, la pêche (et surtout la surpêche par braconnage) à elle seule peut avoir une influence majeure sur la longueur et le poids des poissons.
  • Autre exemple, avec le merlu (également appelé colin) : ce poisson a une longueur de 30 à 110 cm en l’absence de pêche. Et la longueur réglementaire de pêche est de 27 cm pour le merlu commun. Passer de la non-pêche à la pêche a pour conséquence une diminution de la longueur du merlu de 10% à 75%… Idem pour le poids.
  • Un type de braconnage, la pêche électrique, est une technique abusive qui a un impact écologique nocif : la pêche électrique augmente la mortalité des embryons de poissons et des poissons juvéniles, et provoque aussi un retard de croissance. (http://fr.wikipedia.org/wiki/P%C3%AAche_%C3%A9lectrique#Risques_et_impacts_.C3.A9cologiques)
  • Dans un autre contexte, les insectes pollinisateurs continuent de mourir à cause des pesticides, parce que l’Union européenne a décidé de ne pas interdire les pesticides. Les empoisonneurs continuent de tuer les abeilles dans l’impunité… (http://www.24heures.ch/monde/europe/L-UE–ninterdira-pas-les-pesticides-nocifs-aux-abeilles/story/11975571)  C’est dégueulasse…

 

En climatologie, il y a souvent anguille sous roche, et ça finit en queue de poisson… d’avril ? Les experts essaient de noyer le poisson. Bof, je suis comme un poisson dans l’eau. Bon je me tais, sinon je vais me faire engueuler comme du poisson pourri.

iconlol

Analyse du livre «Et si la Terre s’en sortait toute seule» de Laurent Cabrol

Analyse du livre «Et si la Terre s’en sortait toute seule» de Laurent Cabrol

30 janvier 2013

Ayant acheté le livre de Laurent Cabrol vers 2009, j’entreprends de faire la critique de quelques passages du livre. Il ne s’agit pas d’une critique dans le but d’accuser, de nuire, ni de décrédibiliser, bien au contraire. Mon seul but est d’apporter un correctif pour que ce livre intéressant soit un peu plus exact. J’approuve Laurent Cabrol quand celui-ci dénonce la bien-pensance écolo médiatisée par sensasionnalisme à travers un phénomène de mode basé sur l’alarmisme culpabilisant et infantilisant.

Mon axiome de base est que tous les livres, y compris les livres dont on est plus ou moins partisan ainsi que les livres scientifiques les plus sérieux, contiennent toujours des erreurs. L’erreur est humaine, c’est normal et naturel. Mais ne rien relire, c’est diabolique.iconlol  Depuis quelques années, cet axiome de la faillibilité des connaissances est confirmé par un certain nombre d’analyses critiques réunies dans mon blog.

Même si le fond d’un bouquin est vrai, que son plaidoyer est juste et légitime, que ses arguments généraux sont fondés, il existe toujours des inexactitudes ou des erreurs quelque part (entre le petit détail excusable et la grosse bourde inadmissible). C’est ce que je vais prouver une fois de plus dans ce présent article.

ANALYSE DU LIVRE

  • Page 45 : Laurent Cabrol affirme que sur Terre il y a toujours la même quantité d’eau, en quantité constante.

C’est faux. Bien que l’eau déjà existante soit en effet durable dans le temps (les océans existent depuis plus de 4 milliards d’années), la quantité d’eau sur Terre est en augmentation, notamment à cause des hommes. La combustion des hydrocarbures produit du dioxyde de carbone mais aussi de l’eau. L’eau formée n’est pas détruite. Pour dissocier l’eau en hydrogène et en oxygène, il faut réaliser des électrolyses, ou bien porter la température à environ 3000°C (impossible dans la nature, sur Terre), ou bien effectuer une radiolyse de l’eau (par des rayonnements ionisants). Donc l’eau produite s’accumule sur Terre.

Démonstration avec l’exemple de la combustion des alcanes :

CH4 + 2 O2 -> CO2 + 2 H2O :: 16 g alcane donne 44 g CO2 + 36 g eau :: Ratio eau/alcane = 2.25

Dans l’exemple ci-dessus, 16 grammes de méthane brûlent avec 64 grammes de dioxygène pour produire 44 grammes de CO2 et 36 grammes d’eau. Le rapport massique montre qu’il se produit 2,25 kg d’eau par kg de méthane brûlé.

Voici quelques autres exemples avec les alcanes plus lourds :
C2H6 + 3.5 O2 -> 2 CO2 + 3 H2O :: 30 g alcane donne 88 g CO2 + 54 g eau :: Ratio eau/alcane = 1.8
C3H8 + 5 O2 -> 3 CO2 + 4 H2O :: 44 g alcane donne 132 g CO2 + 72 g eau :: Ratio eau/alcane = 1.63636363636364
C4H10 + 6.5 O2 -> 4 CO2 + 5 H2O :: 58 g alcane donne 176 g CO2 + 90 g eau :: Ratio eau/alcane = 1.55172413793103
C5H12 + 8 O2 -> 5 CO2 + 6 H2O :: 72 g alcane donne 220 g CO2 + 108 g eau :: Ratio eau/alcane = 1.5
C6H14 + 9.5 O2 -> 6 CO2 + 7 H2O :: 86 g alcane donne 264 g CO2 + 126 g eau :: Ratio eau/alcane = 1.46511627906977
C7H16 + 11 O2 -> 7 CO2 + 8 H2O :: 100 g alcane donne 308 g CO2 + 144 g eau :: Ratio eau/alcane = 1.44
C8H18 + 12.5 O2 -> 8 CO2 + 9 H2O :: 114 g alcane donne 352 g CO2 + 162 g eau :: Ratio eau/alcane = 1.42105263157895
C9H20 + 14 O2 -> 9 CO2 + 10 H2O :: 128 g alcane donne 396 g CO2 + 180 g eau :: Ratio eau/alcane = 1.40625
C10H22 + 15.5 O2 -> 10 CO2 + 11 H2O :: 142 g alcane donne 440 g CO2 + 198 g eau :: Ratio eau/alcane = 1.3943661971831
C11H24 + 17 O2 -> 11 CO2 + 12 H2O :: 156 g alcane donne 484 g CO2 + 216 g eau :: Ratio eau/alcane = 1.38461538461538
C12H26 + 18.5 O2 -> 12 CO2 + 13 H2O :: 170 g alcane donne 528 g CO2 + 234 g eau :: Ratio eau/alcane = 1.37647058823529
C13H28 + 20 O2 -> 13 CO2 + 14 H2O :: 184 g alcane donne 572 g CO2 + 252 g eau :: Ratio eau/alcane = 1.3695652173913
C14H30 + 21.5 O2 -> 14 CO2 + 15 H2O :: 198 g alcane donne 616 g CO2 + 270 g eau :: Ratio eau/alcane = 1.36363636363636
C15H32 + 23 O2 -> 15 CO2 + 16 H2O :: 212 g alcane donne 660 g CO2 + 288 g eau :: Ratio eau/alcane = 1.35849056603774
C16H34 + 24.5 O2 -> 16 CO2 + 17 H2O :: 226 g alcane donne 704 g CO2 + 306 g eau :: Ratio eau/alcane = 1.35398230088496
C17H36 + 26 O2 -> 17 CO2 + 18 H2O :: 240 g alcane donne 748 g CO2 + 324 g eau :: Ratio eau/alcane = 1.35
C18H38 + 27.5 O2 -> 18 CO2 + 19 H2O :: 254 g alcane donne 792 g CO2 + 342 g eau :: Ratio eau/alcane = 1.34645669291339
C19H40 + 29 O2 -> 19 CO2 + 20 H2O :: 268 g alcane donne 836 g CO2 + 360 g eau :: Ratio eau/alcane = 1.34328358208955
C20H42 + 30.5 O2 -> 20 CO2 + 21 H2O :: 282 g alcane donne 880 g CO2 + 378 g eau :: Ratio eau/alcane = 1.34042553191489

C9998H19998 + 14997.5 O2 -> 9998 CO2 + 9999 H2O :: 139974 g alcane donne 439912 g CO2 + 179982 g eau :: Ratio eau/alcane = 1.28582451026619
C9999H20000 + 14999 O2 -> 9999 CO2 + 10000 H2O :: 139988 g alcane donne 439956 g CO2 + 180000 g eau :: Ratio eau/alcane = 1.28582449924279
C10000H20002 + 15000.5 O2 -> 10000 CO2 + 10001 H2O :: 140002 g alcane donne 440000 g CO2 + 180018 g eau :: Ratio eau/alcane = 1.2858244882216

En gros, pour les paraffines, il se produit environ 1,29 kg d’eau par kg de paraffine brûlée. Comme les combustions chimiques d’hydrocarbures sont très fréquentes depuis le début de l’ère industrielle, il est donc faux de déclarer que la quantité d’eau est constante sur Terre. L’augmentation se chiffre en milliards de tonnes d’eau nouvelle générée par la combustion d’hydrocarbures dans le monde chaque année.

  • Dans le livre, page 17, une baisse de 10 km/h pour les automobiles serait implicitement équivalente à une diminution (voire plutôt une non-production) de 0,5% du taux de CO2 atmosphérique.

Supposons que je roule à 90 km/h (25 m/s) sur une voie départementale, et qu’ensuite la vitesse est diminuée de 10 km/h afin de rouler à 80 km/h (22,222 m/s). Ainsi, dans cette situation, l’énergie cinétique passe de 100% à 79,012%, donc elle baisse de 21% environ.

Mais si je passe de 120 km/h (33,333 m/s) à 110 km/h (30,555 m/s), l’énergie cinétique passe de 100% à 84% environ, soit une baisse de 16%.

La production massique du CO2 est proportionnelle à l’enthalpie chimique de la réaction de combustion du carburant, et proportionnelle à l’énergie cinétique du véhicule.

Donc je ne vois pas de lien entre la baisse de 10 km/h sur route et autoroutes avec la baisse de 0,5% du taux de CO2, ni avec la baisse de 50% mentionnée dans un paragraphe antérieur de la même page 17.

  • Page 33, il est stipulé que la dilatation thermique de l’eau est une variation de l’ordre de 2,5 mm par an depuis 1993.

La dilatation isotrope d’un matériau solide ou liquide se présente sous cette équation :

dilatationthermique

D’après l’ENS (http://planet-terre.ens-lyon.fr/planetterre/XML/db/planetterre/metadata/LOM-montee-mer.xml), le coefficient (alpha) de dilatation thermique de l’eau est de 0,00026 K⁻¹. La dilatation thermique de l’eau se produirait sur le premier kilomètre de mer en profondeur (jusqu’au thermocline qui sépare les eaux froides profondes des eaux superficielles qui échangent avec l’atmosphère).

Ainsi, si on a une cuve remplie d’eau, de forme cubique dont les dimensions sont 1 × 1 × 1 mètre (soit 1 m³ en volume), alors chacun des trois côtés voit sa longueur augmenter de 0,26 mm après une élévation de 1°C. De fait, le cube de 1 m³ voit son volume augmenter légèrement, il devient égal à (1,00026)³ = 1,00078 m³. La variation de volume est donc de 0,00078 m³ par °C et par mètre cube (notons que cette valeur vaut le triple du coefficient thermique de l’eau par mètre et par °C).

On peut maintenant appliquer cela aux océans, en considérant le premier kilomètre de profondeur.

Volume moyen d’eau de mer au-dessus du thermocline : 4 pi R² × 0,7 × 1000 = 3,57×10¹⁷ m³ ; avec R = le rayon terrestre volumétrique.

Le calcul montre ensuite que la variation volumique par dilatation thermique est de 2,785×10¹⁴ m³ par °C. Il ne reste plus qu’à estimer la variation moyenne de la hauteur par rapport au niveau initial des océans. Par conséquent, mon calcul indique, si je ne m’abuse, que la dilatation thermique de l’eau de mer provoquerait une élévation moyenne du niveau marin de 0,78 mètre par °C. Comme la Terre s’est réchauffée d’environ 0,6°C sur un siècle, alors (sur une «vitesse» similaire) la température varie en moyenne de 0,006°C par an. Soit +4,68 mm/an pour le niveau marin d’après le calcul. Ce qui est un peu plus élevé que les +2,5 mm/an indiqués dans le livre. Mais les deux valeurs comparées sont du même ordre de grandeur, puis le niveau du thermocline est plutôt assez approximatif, on ne va guère chipoter sur le résultat. L’info donnée par Laurent Cabrol est donc crédible.

  • Page 23, l’auteur dit que la fonte des glaciers a fait passer la masse des glaces de 230 milliards de tonnes à 80 milliards de tonnes de 2000 à 2003, soit 10% des causes de l’élévation du niveau de la mer.

Cela correspond à une perte de 150 milliards de tonnes de glace en 3 ans. Comme il ne s’agit pas ici de glace déjà flottante, il s’agit d’immersion de glace terrestre dans l’océan.

On sait que, lorsque la glace flotte sur l’eau, 90,95% d’un volume régulier de glace reste immergé, et 9,05% de la glace reste au-dessus du niveau de la mer. Et comme Cabrol indiquait que la dilatation thermique correspond à +2,5 mm/an d’élévation du niveau marin, alors 10% de ceci est 0,25 mm/an.

L’immersion de 150 milliards de tonnes de glace dans la mer provoque une élévation moyenne approximative de 0,382 mm en 3 ans. Mais cela pas à cause de la fonte, mais à cause de l’immersion en mer seulement.

La fonte de glace d’eau douce dans l’eau salée entraîne une élévation de volume d’eau douce dans l’eau de mer quand la glace aura fondu. Quand une tonne de glace d’eau douce fond dans de l’eau salée, elle provoque une augmentation de volume océanique global de 24,39 litres en moyenne, d’après mon calcul.

Avec ces 150 milliards de tonnes de glaciers ayant fondu en 3 années, cela correspond à une élévation volumique océanique de 3,6585 milliards de m³. Soit une variation du niveau de 10,25 µm (micromètres !) en 3 ans. L’élévation du niveau de la mer à cause de la fonte de glace est très négligeable, mais quand il s’agit d’immersion de glace qui plonge tout-à-coup dans les océans, l’élévation du niveau est mesurable à notre petite échelle.

L’analyse d’autres paragraphes du livre est actuellement en cours…

© 2013 John Philip C. Manson

Remarques sur le réchauffement climatique, et la problématique de la scientificité

  • Initialement publié le 20 juillet 2011 dans mon premier blog désormais disparu, cet article est restauré ici le 30 janvier 2013.
  • Les liens pointant sur unblog.fr sont tous morts, ils vont être remplacés par les duplicatas vers WordPress.

Cet article est un bref aperçu sur la climatologie. La recherche de contradictions fait partie de la démarche scientifique. Il n’est aucunement question ici de climato-scepticisme selon lequel les faits seraient niés ou ignorés arbitrairement. Toute théorie scientifique n’a pas le but à être érigée en dogme ni en vérité immuable. On reconnaît la valeur de la science au nombre de pseudo-certitudes qu’elle fait tomber. 

Oui, la Terre se réchauffe. C’est un fait. La planète Mars aussi, (voir plutôt ici : https://jpcmanson.wordpress.com/2013/01/30/article-interessant-de-wikipedia-atmosphere-de-mars/) mais pas à cause du CO2, puisque l’atmosphère martienne est déjà composée à 98% de CO2.

La question du forçage radiatif qui désigne l’effet de serre du CO2 est reliée à l’hypothèse selon laquelle la concentration du CO2 est fonction de la variation thermique. La loi de Stefan-Boltzmann rend compte de cet aspect théorique.

Cependant, le coefficient utilisé pour le calcul logarithmique présente une incertitude : http://jpmanson.unblog.fr/2011/07/19/quel-est-le-coefficient-utilise-pour-le-calcul-du-forcage-radiatif-du-co2/ (voir plutôt ici : https://jpcmanson.wordpress.com/2013/01/30/quel-est-le-coefficient-utilise-pour-le-calcul-du-forcage-radiatif-du-co2/)

Pire encore, la quantification du pouvoir de l’effet de serre du méthane par rapport à celui du CO2 présente de lourdes contradictions : http://jpmanson.unblog.fr/2011/07/17/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/ (voir plutôt ici : https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/)

Si l’absorption d’une longueur d’onde précise dans l’infrarouge par un gaz à effet de serre repose sur des expériences spectrométriques connues et reproductibles, les données quantitatives de l’effet de serre des gaz à l’échelle macroscopique ne sont pas évaluées de façon certaine.

Qu’est-ce que la climatologie constate ?

  • La science constate un réchauffement global terrestre de 0,74°C ou de 0,60°C (selon les sources) en un siècle (avec une marge d’incertitude de plus ou moins 0,2°C). C’est un fait. Mais il s’agit d’une moyenne. Par exemple, l’Europe pourrait a priori se refroidir à cause de la fonte de la banquise arctique qui modifie la circulation thermohaline ;
  • La science constate une augmentation certaine de la concentration de CO2 dans l’atmosphère terrestre. C’est un fait.

C’est tout. Vouloir relier les deux constatations dans une relation de cause à effet, sous le prétexte qu’elles sont corrélées dans le temps, doit nécessairement se soumettre au critère de réfutabilité, en faisant des expériences. L’effet de serre est une réalité prouvée à l’échelle microscopique, par l’étude des spectres d’absorption du rayonnement infrarouge selon les gaz. Peut-on extrapoler cela avec certitude à l’échelle planétaire ? L’effet de serre additionnel est une hypothèse crédible, certes, mais est-ce la vérité ? Le GIEC en est «sûr» à 90%, donc il existe une incertitude de 10% : une chance sur dix qu’on se trompe.

La climatologie fait des observations par satellite. Mais l’essentiel du désaccord repose sur les prédictions réalisées par des simulations informatiques. Les simulations on sait ce que ça donne dans les sciences économiques : on ne sait même pas prévoir les krachs boursiers.
Pour entrer dans les détails, l’hypothèse selon laquelle la probabilité que l’homme soit la cause réchauffement climatique par l’effet de serre est de 90% est devenue une conviction, mais une conviction qui repose sur une hypothèse probabiliste, pas sur une certitude scientifique.

Il existe des faits scientifiques qui prouvent que la planète Mars se réchauffe, et il est certain que l’homme n’est pas responsable du réchauffement de la planète Mars. Il est donc légitime de rechercher à réfuter scientifiquement l’hypothèse du réchauffement climatique terrestre anthropique.

Réchauffement anthropique ? Oui, c’est tout-à-fait possible, mais il faut des preuves plus abouties.

La science peut constater une évolution du climat au présent, mais l’avenir du climat est imprévisible. Trop d’incertitudes compliquent les paramètres. De plus, à la question selon laquelle le méthane est un gaz à effet de serre X fois plus puissant que le CO2, la valeur de X selon les diverses sources oscille entre 20 et 75 ! Tenter de prédire le climat que sur la base du CO2 est simpliste et réducteur, mais tenir compte du méthane et de la vapeur d’eau, c’est aboutir à de lourdes incertitudes qui ne peuvent que conduire à avouer qu’il est impossible de prédire le climat si l’on tient compte d’un optimum de paramètres.
Pour être scientifiques, des hypothèses doivent avoir la possibilité d’être réfutables, reproductibles et prédictibles pour qu’elles puissent entrer dans le cadre d’une théorie scientifique.

Dire qu’on peut prédire le climat sur les 20 ou 30 prochaines années est déjà présomptueux. Mais sur un siècle c’est mystique, franchement. On ne peut même pas prédire le temps qu’il fera exactement au-delà de 3 jours, voire 10 jours au plus, et pour le constater il suffit de comparer les prédictions avec les observations. Personne n’a pu prédire la tempête de 1999 ni la canicule de 2003…

Qui parmi nous, vivant maintenant, pourra comparer les prédictions climatiques d’aujourd’hui avec des observations du ciel dans un siècle ? Encore faudrait-il avoir la chance de devenir centenaire, voire un super-pépé… La question de la réfutabilité est posée.

En 1975, le 28 avril, le magazine Newsweek annonçait une ère glaciaire pour les années 2000.

newsweek1975-bishowtosurvive1975coldclimatenewsweek1975apr28

Cela ne ressemble pas du tout à une crosse de hockey. De plus, avant 1975 les données sont connues, sinon on n’aurait pas pu tracer cette courbe.

On a vu le résultat… D’ailleurs, pourquoi la planète Mars se réchauffe t-elle, d’ailleurs ?

Ci-dessous, voici une preuve beaucoup plus convaincante :

Il y a 14700 ans sur Terre, il y eut un réchauffement de 10 degrés en peu d’années par exemple, comme le montrent les travaux du CNRS du 19 juin 2008.

dryasrecent

Source : http://docs.google.com/viewer?a=v&q=cache:asmFpYOrX2cJ:dods.ipsl.jussieu.fr/dssce/Archives/OldSite/PapierAcot3.pdf+%2214700+ans%22+r%C3%A9chauffement+cnrs&hl=fr&gl=fr&pid=bl&srcid=ADGEESjAM__zpqg15juCiv8EBp4PNriJGlLk16Ev4veX_q4FVnAQ1SgxFTeaN8o9GjyGZk30udviU0I6KlkjMkfp-0G13fej9cCPptjA02KmGcJJI54jK1fnEFPsxJCqPyOU2_5qNCEl&sig=AHIEtbTo00-UPDQ4C3frLI_Yvf0178Q63g&pli=1

Je cite aussi :

Two radical warmings stand out: the first one occurred 14,700 years ago, when temperatures jumped 10°C before cooling 1800 years later; the second one came 11,700 years ago, marking the end of the Ice Age. What is startlingis the speed of evolution: these findings imply that dramatic change can occur within “1 to 3 years.”

Source : http://www2.cnrs.fr/en/1335.htm

Alors, il y a 14700 ans, c’était à cause de l’homme ?
Réfuter des conclusions incertaines n’a jamais été un acte de soutien pour la pollution et la dégradation de l’environnement. Je trouve très préoccupant la surmortalité des abeilles par exemple, et je constate que personne ne fait rien dans l’immédiat pour bannir les pesticides qui sont la cause certaine de ce risque d’extinction de l’espèce.

Les particuliers eux-mêmes ne peuvent pas réaliser des expériences qui ne sont pas à leur portée, n’ont pas le matériel à leur disposition (les appareils de mesure du CO2 sont coûteux).

Si l’homme est la cause de quelque chose ayant un rapport avec l’environnement, c’est son rôle d’empoisonneur en contribuant à la disparition des insectes pollinisateurs, mais ça ce n’est pas un sujet très à la mode comparé à la climatologie politisée, au développement durable, à l’éolienne-mania et aux énergies renouvelables. Énergie, programme industriel de développement, mais pas pour un environnement durable.

L’homme est aussi la cause d’un réchauffement de l’atmosphère, mais l’effet de serre macroscopique du CO2 n’est pas démontré. Cependant, j’affirme sur la base de mesures thermiques que l’air se réchauffe du fait de l’urbanisation croissante des campagnes : http://jpmanson.unblog.fr/2011/07/15/mesures-des-temperatures-naturelles-sur-des-materiaux-differents/  (voir plutôt ici : https://jpcmanson.wordpress.com/2013/01/30/mesures-des-temperatures-naturelles-sur-des-materiaux-differents/) D’ailleurs, il existe toujours 2°C de plus à Paris par rapport à la campagne environnante. Les matériaux sombres absorbent le plus de chaleur, et quand le soleil se couche, les matériaux échauffés restituent cette chaleur emmagasinée en rayonnant dans l’infrarouge durant la nuit, c’est pour ça qu’il fait plus chaud en milieu urbain, surtout par ciel nocturne nuageux. Et si on élaborait des tuiles blanches sur le toit ? Ça absorberait moins la chaleur par ensoleillement.

Enfin, vouloir réduire les émissions de CO2, pourquoi pas, mais mieux vaudrait agir sur la base de certitudes.
Combattre les causes réelles ou supposées du réchauffement climatique, pourquoi pas, mais rien ne garantit que la Terre se refroidirait si on agit, peut-être que croire pouvoir changer le climat est une utopie. S’adapter aux changements climatiques, voila une idée plus réaliste.

Ce que l’on peut changer :

  • sauver les insectes pollinisateurs en supprimant ces abominables poisons que sont les pesticides.
  • utiliser des matériaux blancs ou réflecteurs pour limiter l’absorption de chaleur par temps ensoleillé.
  • continuer les recherches pour apprendre dans la mesure du possible ce qui est connaissable sur le climat.

Ce qui est irréaliste :

D’ailleurs, dans le lien hypertexte ci-dessus à propos de l’article de France Soir, il m’a été impossible de poster mon commentaire, c’est bloqué. Les 17 commentaires des internautes constituent une critique explicite.

Voici donc le commentaire que je voulais laisser sur France Soir :
C’est risqué de prendre des décisions politiques d’après des prédictions sur la foi de simulations informatiques irréfutables (on va vu ce que ça donne avec les sciences économiques (*) qui n’ont pas su prédire la crise de 2008). Ce serait plus prudent de prendre des décisions politiques sur l’appui des observations seules. Le critère de la science c’est la réfutabilité d’après des données quantitatives vérifiables. Sinon c’est jouer le risque de perdre toute crédibilité pour longtemps à force de trahir l’esprit de la science et prendre le public pour des idiots…

(*)
« Seul a un caractère scientifique ce qui peut être réfuté. Ce qui n’est pas réfutable relève de la magie ou de la mystique. » (Karl Popper)

« Le développement de l’économie réelle n’a rien à voir avec la science économique. Bien qu’on les enseigne comme s’il s’agissait de mathématiques, les théories économiques n’ont jamais eu la moindre utilité pratique. » (Karl Popper)

© 2011 John Philip Manson

Résumé des sources énoncées ici :

  • Thermodynamique et cinétique des gaz (sur le forçage radiatif)
  • Newsweek du 28 avril 1975 (sur la prédiction foireuse d’un refroidissement futur)
  • CNRS et Jussieu (sur le réchauffement naturel d’il y a 14700 ans)
  • Nasa et Nature (pour l’atmosphère martienne)
  • Maxisciences (sur la cause de l’extinction des abeilles)

Lecture d’un article de monsieur météo (Laurent Cabrol) via NouvelObs

  • Publié autrefois le 21 juillet 2011 dans mon premier blog désormais disparu, cet article est restauré ici le 30 janvier 2013.

Monsieur Cabrol affirme :

  • Depuis 30 ans, la température a augmenté de 0,6% et on se porte toujours bien.

Considérant que la température relative moyenne globale terrestre est de +15°C, alors la variation de 0,6% équivaut à +0,09°C en 30 ans, soit +0,3°C par siècle en moyenne. Sachant que sur les 100 dernières années la variation est de +0,74°C, et si monsieur météo dit vrai, il faut donc conclure à un ralentissement du réchauffement sur les 30 dernières années par rapport aux 100 dernières années.

Mais si l’on considère en terme de température absolue (en thermodynamique), alors 0,6% de 288,15 K (+15°C) équivaut à 1,73°C d’augmentation sur 30 ans, soit 5,76°C sur un siècle (ce qui n’est pas le cas, donc monsieur météo parlait en degrés Celsius et pas en kelvins).

Monsieur météo a dit aussi :

  • Grâce à l’énergie nucléaire, on peut se targuer d’être le pays le plus propre.

C’est exact, la France est à un haut niveau technologique dans le nucléaire,la France est un pays de spécialistes dans ce domaine. De plus, l’uranium ne produit aucune molécule de CO2 ni de méthane. Cependant, le refroidissement contrôlé des réacteurs nucléaires nécessite de l’eau, laquelle est libérée sous forme de vapeur (la chaleur du réacteur étant retransmise dans l’eau froide qui change d’état physique). La vapeur d’eau est un gaz à effet de serre, mais la Terre s’autorégule : l’eau peut condenser en nuages et pleuvoir, et le CO2 est heureusement biodégradable bien qu’il s’accumule peu à peu dans l’air plus vite qui ne soit absorbé. En outre, si le nucléaire est relativement «propre», il produit cependant des déchets nucléaires et leur stockage présente un gros problème… En matière d’économie, le nucléaire est une nécessité pour la survie économique, il est irréaliste de vouloir sortir du nucléaire. (voir ici : https://jpcmanson.wordpress.com/2012/04/24/lenergie-en-allemagne-dont-le-nucleaire/)

Monsieur météo a dit aussi :

  • L’écologie est une science.

Oui, l’écologie est une science et elle devrait se présenter comme telle. À ne pas confondre avec l’écologisme politique qui, lui, est une idéologie dont le but n’est pas la connaissance ni le recul critique mais le pouvoir et l’embrumage des esprits.

Monsieur météo a dit :

  • On nous parle régulièrement  de la disparition des îles Maldives censées être englouties sous les eaux à cause du réchauffement climatique en 1999.

Oui, les Maldives sont victimes d’inondations mais pas forcément à cause de la dilatation thermique de l’eau océanique ou à cause de la fonte des glaciers. Les Maldives sont inondées depuis toujours par les cyclones, c’est naturel et normal, c’est leur climat qui est ainsi (depuis même bien avant l’apparition de l’Homme).

Monsieur météo a dit aussi :

  • En l’an 1000 il y a eu un réchauffement climatique.

Oui, c’est l’optimum médiéval. Il y a eu aussi un réchauffement brutal de 10°C en moins de 10 ans il y a 14700 ans, lors de la période dite du Dryas récent. (lire plutôt ici : https://jpcmanson.wordpress.com/2013/01/30/remarques-sur-le-rechauffement-climatique-et-la-problematique-de-la-scientificite/)

Après la fin de l’article, le commentaire de monsieur Jean-Pierre Bardinet est tout-à-fait pertinent.

Les données à propos des propriétés des gaz à effet de serre sont contradictoires (https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/) et cela a pour conséquence une grande incertitude d’une part sur ces données quantitatives et d’autre part sur les prédictions climatiques faites sur la base de ces données incertaines. J’ai constaté que les sites du web recopient entre eux les grandeurs quantitatives physiques sur les gaz à effet de serre sans vérifier leur authenticité empirique.

Texte intéressant ici dont voici ci-dessous des caractéristiques à évoquer :

  1. il n’existe pas de lois physiques communes au phénomène de réchauffement dans des maisons de verre et aux effets de serre atmosphériques fictifs;
  2. il n’existe pas de calcul qui détermine une température moyenne de la surface d’une planète;
  3. la différence de 33 °C souvent mentionnée est un nombre sans signification calculé de manière erronée;

1). En effet, le lien entre une maison en verre et le réchauffement de certains gaz est une analogie, ce n’est pas exactement le même phénomène.

2). La notion de température moyenne n’a pas de sens : une simulation informatique montre que la moyenne globale de températures locales n’a pas de sens en thermodynamique, et compte tenu de l’amplitude thermique propre à chaque région du globe, la moyenne doit comporter aussi une marge d’erreur due à un « bruit de fond ». La prédiction climatologique a un comportement chaotique à moyen terme, à cause duquel les prédictions sont impossibles, l’incertitude devenant supérieure à la grandeur à évaluer. Il n’existe pas de prédictibilité globale de la température moyenne s’il n’existe pas de prédictibilité régionale. Une autre incertitude vient renforcer l’incertitude chaotique : il s’agit des données contradictoires concernant le méthane, dont plusieurs sources affirment qu’il est 20, 23, 25 ou 56, jusqu’à 75 fois plus puissant que le CO2 comme gaz à effet de serre (https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/). Cette incertitude rend les phénomènes imprédictibles.

3). Affirmer que la température moyenne globale serait de -18°C au lieu de 15°C s’il n’y avait pas de CO2 est seulement une hypothèse : aucune expérience n’a été faite à ce sujet, et ces -18°C sont issus d’un calcul discutable. Selon la loi d’Arrhenius, une température globale de -18°C correspond à une concentration en CO2 d’environ 0,23 milliardième de ppm. Mais avec une concentration en CO2 nulle, la température globale tend vers le zéro absolu ce qui n’est pas crédible. Pour les très faibles concentrations en gaz à effet de serre, la loi d’Arrhenius est invalide. Ainsi, d’où provient cette valeur de -18°C ?

Le rôle des océans, celui des nuages et celui des aérosols dans le climat global sont suffisamment méconnus pour entraîner des incertitudes qui font que les prédictions ne peuvent pas être fiables. Peut-on modéliser vraiment le climat ?
© 2011-2012-2013 John Philip C. Manson