Etude thermodynamique chimique de la valeur énergétique des aliments

Je me suis aperçu que la valeur énergétique (en kilocalories) des aliments correspondait à l’enthalpie de la réaction chimique de combustion de la substance avec le dioxygène.

Exemple de l’éthanol :

C2H5OH + 3 O2  -> 2 CO2 + 3 H2O

La combustion de l’éthanol (le même alcool que l’on picole) avec le dioxygène libère de la chaleur (réaction exothermique) : 1367 kJ/mol.

Lorsqu’on divise les kilojoules par mole par la masse molaire et que l’on divise aussi par le coefficient 4,184 kJ/kcal, l’on obtient une valeur énergétique exprimée en kilocalories par gramme.

Ainsi, pour le cas de l’éthanol, je trouve 4 kcal/g. Je trouve la même valeur que celle des nutritionnistes.

Exemple du saccharose (sucre ordinaire) :

C12H22O11 + 12 O2 -> 12 CO2 + 11 H2O

La combustion du saccharose libère une chaleur (c’est exothermique) de 5640 kJ/mol, ce qui équivaut à 3,94 kcal/g. C’est très proche de la valeur des nutritionnistes (4 kcal/g).

Exemple de l’aspartame :

C14H18N2O5 + 16 O2 -> 14 CO2 + 9 H2O + N2

Pour le cas de l’aspartame, je trouve 7,4 kcal/g, mais il s’agit d’une réaction endothermique de combustion, contrairement à l’éthanol et le saccharose. J’ai basé ici mon calcul sur les énergies de liaisons : https://jpcmanson.files.wordpress.com/2013/01/energiesliaisons.png

Les nutritionnistes, ou la plupart, affirment que l’aspartame correspond à seulement 52 kcal pour 100 g, soit 0,52 kcal/g. Pourquoi on ne retrouve pas cette valeur selon l’enthalpie de réaction ?

L’aspartame est un dipeptide, qui est un précurseur des protéines. Or les protéines ont une valeur énergétique moyenne de 4 kcal/g. Tandis que celle des lipides est plutôt de 9 kcal/g.

En terme de masse, l’aspartame est moins calorigène car son pouvoir sucrant est environ 200 fois supérieur à celui du saccharose, ainsi on consomme 200 fois moins d’aspartame par rapport au saccharose. Mais à masse égale, l’aspartame est-il réellement moins calorique que le sucre ? L’aspartame n’est pas chimiquement si différent des protéines qui, elles, sont néanmoins calorigènes (4 kcal/g).

La valeur suggérée de 51 kcal pour 100 g pour l’aspartame, je l’ai lu ici : http://sante.journaldesfemmes.com/calories/edulcorant-a-l-aspartame/aliment-31019 D’où sortent-ils(elles) cette valeur ?

Cependant, on peut lire une tout autre valeur, équivalente à celle que j’ai calculée, dans ce document luxembourgeois : http://www.ulc.lu/Uploads/Konsument_Menage/Doc/20_1_20-23.pdf dont je cite : « à part l’aspartame (4 kcal/g) ».

Comme vous le constatez, les connaissances en chimie sont utiles pour garder un esprit critique, même en matière de diététique. En effet, quand certain(e)s déclarent qu’un édulcorant n’est pas calorique ou très peu, ce n’est pas forcément vrai.

© 2015 John Philip C. Manson

Pleins phares sur l’indice carbone

 

Dans le lien cité ci-dessus, je reste perplexe.

J’ai testé quelques trucs afin d’évaluer la pertinence des résultats quantitatifs.

  • Tout d’abord,, je teste à combien de CO2 d’équivalence correspond 1 million de kWh, le résultat indique 85,1 tonnes de CO2 par million de kWh. Cela correspond à 85,1 g de CO2 par kWh, ce qui est dans l’ordre de grandeur attendu (90 g/kWh, d’après la production électrique française moyenne entre 2009 et 2011, grosso modo, mais en 2013 on émet maintenant moins de CO2 en production électrique).

rte2013Source : RTE2013

 

Comme on le voit dans le tableau ci-dessus : une production nette de 550,9 TWh correspond à 550,9 milliards de kWh, tandis que 29,1 millions de tonnes de CO2 correspondent à 29,1 teragrammes de CO2. Une division montre qu’en 2013, la France a produit 52,8 g de CO2 par kWh produit. Ce n’est donc plus 90 g/kWh comme il y a moins de 4 ans, le taux varie d’une année à l’autre selon la quantité d’électricité produite et l’évolution des moyens de production électrique.

  • Ensuite, je teste un autre truc sur le site empreinte.carbone.free.fr. J’observe que le calcul par le site indique qu’une tonne de charbon produit 152,14 tonnes de CO2.

Avec la chimie quantitative, le bilan chimique montre que 12 g de carbone réagit avec 32 g de dioxygène pour produire 44 g de CO2. Par conséquent, une tonne de carbone produit 3,66 tonnes de CO2. Le site indique une valeur qui est 41,6 fois plus grande.

On va sûrement me dire que cette différence est due au transport du charbon depuis des mines lointaines (depuis la Chine exportatrice). Oui c’est possible. Mais je continue l’évaluation des données fournies par le site.

  • Ainsi, la combustion de propane, on va dire : 100 000 litres, produit 149,29 tonnes de CO2, d’après le site.

En chimie quantitative, 44 g de propane réagit avec 160 g de dioxygène pour produire 132 g de CO2 et 72 g d’eau, d’après l’équation de réaction chimique suivante :  C3H8 + 5 O2  —>  3 CO2 + 4 H2O.

Si on raisonne selon un volume gazeux de 100 000 litres de propane, on disposera donc d’une masse de 196,43 kg de propane qui produira par combustion une masse de 589,29 kg de CO2. Cette masse est excessive par rapport au résultat du site, donc on va voir pour le cas du propane liquide : 100 000 litres de propane liquide, ça a une masse volumique de 0,5812 kg/L (http://fr.wikipedia.org/wiki/Propane), et par conséquent, ça correspond à une masse de 58,12 tonnes de propane liquide qui produit par combustion une masse de 174,36 tonnes de CO2. Ce qui est un résultat plus cohérent par rapport à celui du site. Cependant, le site donne une valeur inférieure à celle prévue par la chimie quantitative. Cela pose problème : il y a d’une part la masse de CO2 produite par la combustion, mais aussi d’autre part une masse supplémentaire de CO2 qui est produite par le transport routier, fluvial, ou maritime du propane liquide depuis les pays exportateurs vers les pays consommateurs. Il y a donc quelque chose ici qui ne colle pas. Le site aurait dû indiquer une valeur d’au moins 174,36 tonnes de CO2 au lieu de 149,29 tonnes…

 

  • Mais continuons l’enquête : d’après le site, 1 million de kWh de gaz naturel correspondent à 184,04 tonnes de CO2.

 

D’après http://fr.wikipedia.org/wiki/Pouvoir_calorifique_inf%C3%A9rieur on constate que le PCI et le PCS du gaz naturel sont respectivement de 38,1 MJ/kg de gaz naturel et 42,5 MJ/kg de gaz naturel. Ces valeurs correspondent à 10,58 kWh pour 2,75 kg de CO2 produit, et à 11,8 kWh pour 2,75 kg de CO2 produit.

2,75 kg de CO2 pour 1 kg de gaz naturel, parce que la combustion de 1 kg de méthane produit 2,75 kg (44 divisé par 16) de CO2, selon la réaction suivante :  CH4 + 2 O2  —> CO2 + 2 H2O. Mais le gaz naturel est un mélange d’hydrocarbures dont le méthane.

En conséquence, le PCI du gaz naturel correspond à 260 g de CO2 par kWh, et le PCS correspond à 233 g de CO2 par kWh. Et on conclut alors qu’un million de kWh en gaz naturel ça correspond à entre 233 et 260 tonnes de CO2.

D’après le site suivant : http://www.renovationdurable.eu/Notions-Valeurs-de-conversion.html  le gaz naturel correspond à 202 g de CO2 par kWh (donc 202 tonnes de CO2 par million de kWh).

Ainsi, la valeur donnée par le site Free (184,04) est plus faible que celle de la réalité.

Alors, d’où proviennent les données de base du site examiné ?

 

Ce qu’où je veux en venir, c’est que le concept d’indice carbone ou de bilan carbone est souvent biaisé, les grandeurs quantitatives peuvent beaucoup varier, et il existe une part d’incertitude à ne pas négliger et à prendre en compte. À considérer comme un simple gadget indicateur que comme une véritable unité de mesure.

Je suis étonné par ce genre de page, par exemple :  lien-eco car on y lit que l’on compense les émissions de CO2 d’un blog en plantant un arbre. Je suis très favorable à la plantation d’arbres, c’est une très bonne chose. Mais la croissance des arbres est très lente par rapport aux activités humaines quotidiennes.

On lit aussi que le chargement d’une page web équivaudrait à 20 milligrammes de CO2. Or si la page est chargée en 0,16 seconde (j’ai testé avec l’index de Google), cela correspond à une puissance électrique de 0,61 millionième de watt et une énergie électrique de 9,8 microjoules. Je me demande comment cela a été mesuré ou calculé…

Mais enfin, passons à une remarque concrète :  compenser le carbone en plantant des arbres, c’est bien, mais c’est un geste infinitésimal par rapport aux 9,6 milliards de tonnes annuelles de CO2 produits par la Chine… (http://www.planetoscope.com/co2/676-emissions-de-co2-par-la-chine.html) Et 9,6 milliards de tonnes annuelles, ça équivaudrait à 1920 milliards d’arbres à planter chaque année, rien que pour la Chine… Et plus de 36 milliards de tonnes de CO2 par an dans le monde entier (que l’on devrait compenser avec plus de 7200 milliards d’arbres sur tous les continents)… Soyons cohérents, que nos gestes pour l’environnement soient concrets, utiles et significatifs, au lieu de faire sourire ou agacer les gens…

 

© 2014 John Philip C. Manson

—-

P.S.: ce blog est compensé carbone, et en plus, ce blog est bio ! (avec quelques coups de tampon pour marquer le label agréé par les plus grands scientifiques vieux et barbus).

iconlol  (je déconne)

 

De l’eau sèche en poudre ?

L’article décrit de l’eau liquide absorbé par de la silice en poudre pour former soi-disant de «l’eau sèche» contenant 95% d’eau…

Pourquoi j’ai du mal à y croire ?

Voici mon argument. L’eau liquide est incompressible. La masse volumique de la silice est de 2,65 g/cm³. On aura donc 95 g d’eau emmagasinée dans 5 g de silice, et donc 95 cm³ d’eau stockée dans un volume silicieux de 1,89 cm³. Or on ne peut pas mettre 95 cm³ d’eau liquide dans un volume silicieux de 1,89 cm³ puisque l’eau liquide est incompressible… Si les ingénieurs connaissent un truc qui m’aura échappé, j’aimerais le connaître…

Il est a priori possible de solubiliser du méthane dans de «l’eau sèche», comme le raconte l’article de Nature : http://www.nature.com/news/2008/080903/full/news.2008.1077.html

Cependant, la proportion de 95% d’eau dans «l’eau sèche» me paraît très incohérente. Mon argument ne vaut que si l’eau est absorbée par la silice (en supposant que la silice est très poreuse). Toutefois, le paradoxe volumique disparaît si l’eau ne s’incorpore pas à la silice, en se limitant aux phénomènes de tension superficielle. Ainsi, le volume d’eau ne devra pas être forcément égal au volume de silice poreuse, l’eau devant a priori remplir les pores de silice. En fait, les volumes s’additionnent, l’eau enroberait la silice sans la pénétrer. J’en déduis que l’eau sèche, si elle existe, a une masse volumique de 1,032 g/cm³.

Concernant la solubilité des gaz dans l’eau sèche, je ne peux guère me prononcer.

Même si l’histoire de l’eau sèche semble accréditée par la revue Nature, il vaut mieux rester critique. Si je me montre sceptique, c’est parce que j’ai entendu parler il y a quelques années de l’histoire fumeuse de l’eau lyophilisée qui s’est révélée être un canular scientifique

Un canular ? Oui, comme le montre certains sites web :

L’anecdote actuelle de l’eau sèche est cependant vérifiable scientifiquement. L’eau sèche, si elle existe, peut être produite assez facilement en dispersant des nanoparticules de silice hydrophobe dans de l’eau à l’aide d’une tige d’agitation à 19 000 tours par minute pendant 90 secondes, ce qui enrobe complètement les gouttelettes. En gros, c’est une émulsion entre l’eau, l’air et la silice. Voila un protocole expérimental précis. Mais je ne peux rien conclure tant que je n’ai rien encore expérimenté.

Toute cette histoire amène à se poser une question scientifique intéressante dans le domaine de la chimie : quel est le lien entre la solubilité d’un gaz dissout dans l’eau et la tension superficielle de l’eau en émulsion avec de la silice ?

Je reste prudent en ce qui concerne l’eau sèche. Nul n’est à l’abri d’un canular scientifique bien ficelé. L’affaire Sokal est un bon exemple qui montre que cela peut arriver, et plus facilement qu’on croit…

On n’adhère pas à une découverte sur son apparente crédibilité, on l’accepte seulement si on en a évalué la solidité à travers des expériences reproduites indépendamment. Je ne crois qu’en ce que j’observe et ce que je mesure.

La tension superficielle de l’eau reste t-elle cohérente par rapport à la quantité d’eau par rapport à la silice (95 sur 5) ? C’est une piste à vérifier.

Un bon canular peut être utile, si on y réfléchit. Cela permet de tester l’esprit critique des ingénieurs et des chimistes. Une façon de voir jusqu’où va la crédulité. Parce que des scientifiques crédules, ça existe, et parfois ça va loin…

En recherchant le terme anglais « dry water » dans les publications scientifiques, je trouve 89 références dans le site nature.com, mais aucune référence trouvée dans les sites de New Scientist et Science Magazine… Cependant, à travers une recherche sur scholar.google.com, je trouve maintes références via nature.com et pubs.acs.org (American Chemical Society), ainsi que sciencedirect.com. Ainsi il est possible que l’eau sèche soit distincte de l’eau lyophilisée. La confusion est compréhensible.

Des sources officielles semblent attester que l’eau sèche serait une réalité. Cependant, soyons prudent en ce qui concerne les médias intermédiaires. Mieux vaut consulter les sources d’origine. Mais le meilleur conseiller pour tous, en matière de science, c’est l’expérimentation scientifique. Pas la littérature. En effet, la méthode scientifique ne consiste pas à consulter des livres, des pages web, des magazines ou des encyclopédies, mais à mesurer et observer par des expériences.

Complément du 18 mars 2014 :

Je présente un nouvel argument en faveur du scepticisme. Je vais évoquer la compacité cristalline du mélange silice/eau.

Les nanoparticules de silice peuvent être représentées comme des structures sphériques entre lesquelles l’eau fait interstition (apparemment je ferais un néologisme là : interstition signifiant «remplir les espaces vides entre les parties d’un tout»).

Les microbilles de silice se touchent entre elles, avec en leur sein de l’eau interstitielle. En partant du principe où l’on aura un système cubique à faces centrées, dans lequel la compacité volumique de la silice est maximale, alors on aura 0,74 volume de silice par volume de maille de système cubique à faces centrées. Mon calcul montre que la proportion massique d’eau par rapport au mélange silice/eau sera de 11,7%. Mais pas 95%. Mais  si «l’eau sèche» existe, alors il ne s’agit pas d’un mélange compact, et donc les nanoparticules de silice ne se touchent pas, elles sont mobiles dans l’émulsion aqueuse. Dans ce cas, ce n’est pas sec, c’est plutôt comme un fluide. À moins que la tension superficielle de l’eau maintient l’eau à la surface de chaque particule de silice. Cela reste à vérifier.

Dans le cas d’un système cubique centré, qui est deux fois moins compact (en volume) en nanoparticules de silice qu’un système cubique à faces centrées, la proportion massique d’eau atteint 39,13%. De toute façon, une émulsion n’est pas une structure matérielle compacte.

On a donc une micro-émulsion d’eau et de silice, et je pense que cela serve à former un composé tensioactif, un composé qui modifie la tension superficielle entre deux surfaces.

S’il existe un lien entre la tension superficielle et la solubilité des gaz, on peut faire des expériences, comme par exemple l’ajout de particules de silice dans un soda, en comparant avec un soda sans silice, histoire de voir lequel des deux sodas devient éventé le premier au cours du temps.

 

© 2014 John Philip C. Manson

Quand Internet résout les DM à votre place

Quand Internet résout les DM (devoirs maison = homework) à votre place.

Analyse de la situation de ceux qui demandent de l’aide ou à faire faire leurs devoirs par autrui sur Internet :

  • Quand vous êtes étudiants, vous apprenez, donc vous cherchez tout seul.
  • Quand vous avez fini vos études, vous avez un travail et vous touchez un salaire.

Il est donc hors de question de vous donner la solution…

  • Soit vous êtes lycéens ou étudiants et ce n’est pas vous rendre service que de faire vos devoirs à votre place.
  • Soit vous n’êtes pas lycéens ni étudiants, et dans ce cas on veut bien donner une solution moyennant un salaire.

Personne ne m’a aidé (c’est-à-dire : personne n’a fait mes devoirs à ma place) pendant toutes mes études scientifiques, et heureusement, car sinon je n’aurais rien appris et je serais toujours un cancre en maths maintenant.

La réussite dans les études se gagne avec notre propre sueur. C’est comme le sport : si vous êtes sportif, c’est vous qui devez pratiquer votre sport, personne ne fait de compétitions sportives à votre place…

Le dopage dans le sport c’est démodé, maintenant on engage une doublure qui fait le boulot à notre place.

iconlol

© 2013 John Philip C. Manson

Ma position par rapport au mouvement des Brights

Le Mouvement des brights regroupe des individus qui portent sur le monde un regard « naturaliste », c’est-à-dire libre de tout élément surnaturel ou mystique ; les brights fondent leur éthique et leur comportement sur une compréhension naturaliste de l’univers. S’inscrivant dans la continuité des Lumières, le réseau international des brights s’est constitué comme mouvement de visibilité de celles et ceux qui portent un regard « naturaliste » sur le monde ; le mode d’existence du réseau est basé sur l’utilisation d’internet.

  • Le naturalisme philosophique est la position selon laquelle rien n’existe en dehors de la nature : il n’y a rien de surnaturel ou, à tout le moins, que le surnaturel est sans influence sur le naturel.
  • Le siècle des Lumières est un mouvement intellectuel initié en Europe du XVIIIe siècle, dont le but était de dépasser l’obscurantisme et de promouvoir les connaissances; des philosophes et des architectes intellectuels, encourageaient la science et l’échange intellectuel, en s’opposant à la superstition, l’intolérance et les abus de l’Église et de l’État.

Voici ma vision des choses ci-dessous (c’est identique à la science actuelle, quand la méthode scientifique est respectée avec intégrité, professionnalisme et transparence) :

En ce qui me concerne, ma philosophie se base sur un naturalisme atomiste, matérialiste, mécaniste et empiriste. Je me base sur la méthode scientifique à travers le critère de la réfutabilité, dans le sens donné par Karl Popper. Le principe de réfutabilité en science a pour conséquence que la science n’établit pas des vérités inébranlables, mais des vérités faillibles fondées sur des représentations faillibles de l’univers et de la nature, à travers la recherche empirique. Ce qu’on appelle vérité est quelque chose de relatif. En revanche, des hypothèses fausses qui sont réfutées par des faits, sont infirmées définitivement. C’est la fausseté réelle des choses fausses qui est une vérité bien tranchée. Ainsi, à la lumière des faits, des connaissances peuvent être soit a priori vraies, soit certainement fausses. Une hypothèse (ou même une théorie scientifique) ne s’érige pas en vérité ; une hypothèse ou théorie est évaluée selon sa solidité par confrontation aux faits.

En physique et dans les autres sciences de la nature, une connaissance est faillible : si elle est fausse en soi, sa fausseté peut être définitivement établie, tandis que si elle est vraie en soi, on ne pourra pas prouver qu’elle est absolument vraie, on pourra juste corroborer la connaissance, on remarquera sa cohérence. Ce qu’on appelle la vérité, en sciences, ne se trouve que dans les mathématiques. Les maths sont indépendantes du monde matériel, elles sont abstraites, leurs lois leur sont propres. C’est étonnant que les maths soient autonomes par rapport au monde matériel, et qu’en même temps les maths peuvent expliquer de nombreux phénomènes matériels. Je suppose que le grand mathématicien Cédric Villani est de mon avis.   😉  Et désolé si je ne dis pas «LA mathématique», au singulier, question de (mauvaise) habitude.  🙂

De plus, les maths ont un avantage : il suffit d’un crayon et d’un papier, ou d’une craie et d’un tableau noir (mais un superordinateur pour les calculs longs c’est bien mieux). Les sciences expérimentales, elles, sont plus contraignantes : il faut un budget pour les instruments scientifiques, il faut faire un montage expérimental rigoureux (c’est facile de foirer une expérience), et parfois ça explose à la figure.

iconlol

  • Question métaphysique : la matière précède t-elle les mathématiques ? L’homme pensant invente ou crée les maths et les utilisent. Les cerveaux préexistent par rapport à l’existence des maths. Les maths existeraient-elles s’il n’existait pas d’hommes pensants ?

Je pense que les maths sont une extension de notre propre conscience. Peut-être que la conscience elle-même est un calcul auto-référent, mais je préfère vous éviter la migraine.

Retour sur ce qu’est une théorie scientifique :

methodescientifique

Pour faire une métaphore, une théorie est comme la sculpture d’une statue : on n’ajoute pas du matériau à l’ouvrage, mais on procède par élimination, on enlève ce qui est superficiel, comme si on taillait un roc informe, et l’ouvrage qui reste est ce qui est a priori vrai, sinon crédible. Mais c’est un ouvrage crédible qui ne sera jamais achevé définitivement, car il est sans cesse affiné petit à petit. A contrario, les hypothèses et théories douteuses, dans le contexte de la fraude scientifique, ou de la science fringe, ou de la pseudo-science, se caractérisent par des rustines multiples ajoutées ad hoc selon les faits nouveaux, sans même corriger ni remettre en question l’hypothèse ou la théorie érigée en dogme… Plus on rajoute des rustines sur les roues d’une théorie pour sauver celle-ci, moins le vélo roulera bien…

Ma vision naturaliste est caractérisée par des critères précis : un naturalisme scientifique dépourvu autant que possible de toute forme de subjectivité, un naturalisme fondé sur l’expérimentation et la réfutabilité. Une conception fondée sur l’utile et le nécessaire, tout en ayant conscience des incertitudes inévitables.

Jamais il ne faudrait dire qu’une théorie scientifique est vraie. Elle peut être vraie et cohérente mathématiquement, mais la physique comporte des incertitudes quantitatives que les mathématiques strictes ignorent. Par exemple, l’infini existe en maths, mais pas en physique. Une théorie scientifique n’est donc pas une vérité absolue, on dit plutôt que la théorie est crédible, à la fois par rapport aux maths, et à la fois par rapport aux expériences ou observations. Et cette crédibilité se mesure sur la cohérence propre de la théorie (accord entre les maths et l’expérience du réel) mais aussi sur la cohérence par rapport à l’édifice scientifique établi et par rapport aux sciences interdisciplinaires. Par exemple, en électrochimie, par exemple en réalisant une électrolyse : les lois de la physiques (électrostatique, électrodynamique, électromagnétisme) ne doivent pas entrer en contradiction avec les lois de la chimie (théorie de l’atome, modèle atomique, réactions chimiques).

Ensuite, jamais je n’accepte de voir la science associée à la pseudo-science et au mysticisme. Karl Popper avait posé un principe de démarcation épistémologique. Cette démarcation est une nécessité.

Et jamais je n’accepte de voir la science récupérée abusivement par des idéologies politiques ou religieuses dont la finalité est le pouvoir et le profit au mépris de la démocratie et de la liberté des peuples. La science doit rester indépendante de toute influence subjective. Le lyssenkisme sous l’idéologie soviétique par exemple. Le créationnisme par l’intégrisme chrétien ou autre, aussi, par exemple.

La désinformation est inacceptable. Tout citoyen a droit à l’information et à l’éducation. Les journalistes ont des devoirs déontologiques (Charte de déontologie du journalisme) : devoir de vérité, devoir de rectifier ce qui est inexact, devoir de rester critique, refus du sensationnalisme.

De même, le naturalisme non plus ne doit pas dénaturer la science pour servir l’athéisme. Ce que l’on croit ou ce que l’on ne croit pas ne fait pas partie de la science. Si j’avais des croyances, je les aurais mises au vestiaire quand j’entre dans l’arène de la science. En tant qu’athée ou agnostique, cela importe peu sur le suivi de la démarche scientifique. Les émotions aussi, il faut les laisser au vestiaire. Je n’ai besoin que d’un cerveau frais pour faire un raisonnement logico-mathématique, des yeux pour observer et expérimenter, et l’absence de subjectivité afin d’interpréter sans superficialité les données quantitatives des phénomènes observés.

La connaissance est un édifice faillible fondé sur une méthode qui a fait ses preuves. La science, ça marche, mais des conditions sont à respecter.

Si dépasser l’obscurantisme et promouvoir les connaissances sont l’objectif des Brights, je vais plus loin que ça. Comment ça ? La connaissance pourrait être vue comme une vérité qui abolit les mensonges de l’obscurantisme. Dans mon blog, j’ai montré que même des connaissances à l’apparence scientifique, à travers les médias de tous les jours, sont matière à tromperies, erreurs, lacunes et croyances… Le scepticisme scientifique, selon moi, doit s’appliquer aussi sur la (mauvaise) vulgarisation scientifique via le journalisme grand public. Depuis une dizaine d’années, et avec l’influence d’Internet, la vulgarisation perd en qualité (certains magazines, mais surtout dans le web), ça devient comme la malbouffe… On remplit le cerveau vite, mais mal, et inutilement. Mieux vaut former le cerveau au doute. L’émergence de magazines pseudo-scientifiques aggrave les choses.

J’ai ouvert une porte, d’autres devraient me suivre. Il n’existe pas d’information infaillible, le taux d’erreurs quantitatives dans le mauvais journalisme des sciences est plus grand qu’on ne l’avait pensé. La méthode scientifique et le raisonnement logico-mathématique c’est plus important que le concept de naturalisme, bien que les sciences tendent à montrer que l’univers est naturel et que l’hypothèse d’un Dieu est inutile. La science n’a pas à s’embarrasser de mysticisme. La rigueur dans la méthode scientifique, à travers la réfutabilité des hypothèses et des théories, c’est plus important que la crédibilité des théories elles-mêmes. En gros, peu importe la laideur de la destination, pourvu que le voyage ait été bon, Voila.

Tout doit être autopsié (tout doit-il disparaître ?). De quoi être indécis entre l’autopsie et la boucherie… Toubib or not toubib, that is the question.

iconlol

© 2013 John Philip C. Manson

Actuellement, quels sont les apports de l’alchimie ?

La théorie de l’atome ayant porté ses fruits, la chimie moderne s’est développée depuis la seconde moitié du dix-huitième siècle.

En revanche, l’alchimie n’est qu’une croyance basée sur des symbolismes et des aprioris, et ne repose pas sur des faits objectifs étayés par des données quantitatives vérifiable à travers des expériences reproductibles. L’alchimie est un mythe, un ensemble poétique et mystique de superstitions.

Je parle en connaissance de cause. Je suis chimiste de formation, et je m’étais jadis intéressé à l’alchimie. Donc je connais très bien les sujets concernés.

 

 

© 2013 John Philip C. Manson

Lecture d’un article de monsieur météo (Laurent Cabrol) via NouvelObs

  • Publié autrefois le 21 juillet 2011 dans mon premier blog désormais disparu, cet article est restauré ici le 30 janvier 2013.

Monsieur Cabrol affirme :

  • Depuis 30 ans, la température a augmenté de 0,6% et on se porte toujours bien.

Considérant que la température relative moyenne globale terrestre est de +15°C, alors la variation de 0,6% équivaut à +0,09°C en 30 ans, soit +0,3°C par siècle en moyenne. Sachant que sur les 100 dernières années la variation est de +0,74°C, et si monsieur météo dit vrai, il faut donc conclure à un ralentissement du réchauffement sur les 30 dernières années par rapport aux 100 dernières années.

Mais si l’on considère en terme de température absolue (en thermodynamique), alors 0,6% de 288,15 K (+15°C) équivaut à 1,73°C d’augmentation sur 30 ans, soit 5,76°C sur un siècle (ce qui n’est pas le cas, donc monsieur météo parlait en degrés Celsius et pas en kelvins).

Monsieur météo a dit aussi :

  • Grâce à l’énergie nucléaire, on peut se targuer d’être le pays le plus propre.

C’est exact, la France est à un haut niveau technologique dans le nucléaire,la France est un pays de spécialistes dans ce domaine. De plus, l’uranium ne produit aucune molécule de CO2 ni de méthane. Cependant, le refroidissement contrôlé des réacteurs nucléaires nécessite de l’eau, laquelle est libérée sous forme de vapeur (la chaleur du réacteur étant retransmise dans l’eau froide qui change d’état physique). La vapeur d’eau est un gaz à effet de serre, mais la Terre s’autorégule : l’eau peut condenser en nuages et pleuvoir, et le CO2 est heureusement biodégradable bien qu’il s’accumule peu à peu dans l’air plus vite qui ne soit absorbé. En outre, si le nucléaire est relativement «propre», il produit cependant des déchets nucléaires et leur stockage présente un gros problème… En matière d’économie, le nucléaire est une nécessité pour la survie économique, il est irréaliste de vouloir sortir du nucléaire. (voir ici : https://jpcmanson.wordpress.com/2012/04/24/lenergie-en-allemagne-dont-le-nucleaire/)

Monsieur météo a dit aussi :

  • L’écologie est une science.

Oui, l’écologie est une science et elle devrait se présenter comme telle. À ne pas confondre avec l’écologisme politique qui, lui, est une idéologie dont le but n’est pas la connaissance ni le recul critique mais le pouvoir et l’embrumage des esprits.

Monsieur météo a dit :

  • On nous parle régulièrement  de la disparition des îles Maldives censées être englouties sous les eaux à cause du réchauffement climatique en 1999.

Oui, les Maldives sont victimes d’inondations mais pas forcément à cause de la dilatation thermique de l’eau océanique ou à cause de la fonte des glaciers. Les Maldives sont inondées depuis toujours par les cyclones, c’est naturel et normal, c’est leur climat qui est ainsi (depuis même bien avant l’apparition de l’Homme).

Monsieur météo a dit aussi :

  • En l’an 1000 il y a eu un réchauffement climatique.

Oui, c’est l’optimum médiéval. Il y a eu aussi un réchauffement brutal de 10°C en moins de 10 ans il y a 14700 ans, lors de la période dite du Dryas récent. (lire plutôt ici : https://jpcmanson.wordpress.com/2013/01/30/remarques-sur-le-rechauffement-climatique-et-la-problematique-de-la-scientificite/)

Après la fin de l’article, le commentaire de monsieur Jean-Pierre Bardinet est tout-à-fait pertinent.

Les données à propos des propriétés des gaz à effet de serre sont contradictoires (https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/) et cela a pour conséquence une grande incertitude d’une part sur ces données quantitatives et d’autre part sur les prédictions climatiques faites sur la base de ces données incertaines. J’ai constaté que les sites du web recopient entre eux les grandeurs quantitatives physiques sur les gaz à effet de serre sans vérifier leur authenticité empirique.

Texte intéressant ici dont voici ci-dessous des caractéristiques à évoquer :

  1. il n’existe pas de lois physiques communes au phénomène de réchauffement dans des maisons de verre et aux effets de serre atmosphériques fictifs;
  2. il n’existe pas de calcul qui détermine une température moyenne de la surface d’une planète;
  3. la différence de 33 °C souvent mentionnée est un nombre sans signification calculé de manière erronée;

1). En effet, le lien entre une maison en verre et le réchauffement de certains gaz est une analogie, ce n’est pas exactement le même phénomène.

2). La notion de température moyenne n’a pas de sens : une simulation informatique montre que la moyenne globale de températures locales n’a pas de sens en thermodynamique, et compte tenu de l’amplitude thermique propre à chaque région du globe, la moyenne doit comporter aussi une marge d’erreur due à un « bruit de fond ». La prédiction climatologique a un comportement chaotique à moyen terme, à cause duquel les prédictions sont impossibles, l’incertitude devenant supérieure à la grandeur à évaluer. Il n’existe pas de prédictibilité globale de la température moyenne s’il n’existe pas de prédictibilité régionale. Une autre incertitude vient renforcer l’incertitude chaotique : il s’agit des données contradictoires concernant le méthane, dont plusieurs sources affirment qu’il est 20, 23, 25 ou 56, jusqu’à 75 fois plus puissant que le CO2 comme gaz à effet de serre (https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/). Cette incertitude rend les phénomènes imprédictibles.

3). Affirmer que la température moyenne globale serait de -18°C au lieu de 15°C s’il n’y avait pas de CO2 est seulement une hypothèse : aucune expérience n’a été faite à ce sujet, et ces -18°C sont issus d’un calcul discutable. Selon la loi d’Arrhenius, une température globale de -18°C correspond à une concentration en CO2 d’environ 0,23 milliardième de ppm. Mais avec une concentration en CO2 nulle, la température globale tend vers le zéro absolu ce qui n’est pas crédible. Pour les très faibles concentrations en gaz à effet de serre, la loi d’Arrhenius est invalide. Ainsi, d’où provient cette valeur de -18°C ?

Le rôle des océans, celui des nuages et celui des aérosols dans le climat global sont suffisamment méconnus pour entraîner des incertitudes qui font que les prédictions ne peuvent pas être fiables. Peut-on modéliser vraiment le climat ?
© 2011-2012-2013 John Philip C. Manson

Vérification sur la combustion de l’hydrogène et son pouvoir calorifique

 

En lisant cette page : http://www.minresi.net/minresi/index2.php?cat=info4 j’ai aperçu des données vérifiables.

Je cite le passage concerné :

  • «Car cette petite molécule (le dihydrogène) est fortement énergétique : 1 kg d’H libère 120 mégajoules, alors qu’1 kg d’essence en libère trois fois moins. Mais – il y a un mais – il est beaucoup moins dense, il faut le comprimer, pour libérer ces 120 mégajoules, il faut 13 litres d’H comprimés à 700 bars.»

Le web est une ressource intéressante qui peut servir à faire des exercices de maths et de physique. Ici, il s’agit de thermodynamique. Les lycéens en Terminale S trouveront cela intéressant.

  • Est-ce que 1 kg d’hydrogène libère 120 MJ ? 

1). Vérification via wolframalpha :

En écrivant dans la barre de recherche du site http://www.wolframalpha.com avec cette instruction suivante : H2 + O2 = water, le résultat de l’équation bilan a fourni les enthalpies de la réaction chimique de combustion du dihydrogène avec le dioxygène.

Ainsi, la réaction est exothermique et libère une chaleur de 285,8 kJ par mole de dihydrogène, ce qui équivaut à 142,9 kJ par gramme de H2, soit donc 142,9 MJ par kg de H2. Ce qui est 19,1% de plus que les 120 MJ prétendus par le site web étudié.

Toujours via wolframalpha, le résultat de la réaction de l’octane avec le dioxygène est le suivant : libération de 5051 kJ par mole d’octane, ce qui équivaut à 44,31 MJ par kg d’octane. Le ratio entre le pouvoir calorifique (PCI) de l’hydrogène par rapport à celui de l’octane est de 3,225. Donc en gros, il est correct de dire que l’octane est massiquement trois fois moins calorifique que l’hydrogène.

 

2). Vérification d’après un tableau des énergies de liaisons covalentes :

Ensuite, une seconde vérification se base sur le tableau ci-dessous :

EnergiesLiaisons

En thermodynamique chimique, c’est simple : chacune des molécules possède des liaisons chimiques covalentes, et l’agencement de ces liaisons se modifie complètement au cours d’une réaction chimique à l’issue de laquelle il existe une différence entre la somme des énergies de liaisons des réactifs et la somme des énergies de liaisons des produits.

D’après la réaction   2 H2 + O2 -> 2 H2O    on remarque que dans 2 moles d’hydrogène il y a 2 liaisons H-H, dans 1 mole d’oxygène il y a 1 liaison O=O, dans 2 moles d’eau il y a 4 liaisons O-H. Alors, dans le mélange hydrogène + oxygène (3 moles), il y a 1358 kJ d’énergies de liaison, puis dans les molécules d’eau produites (2 moles de vapeur), il y a 1840 kJ d’énergies de liaison. Ainsi, la réaction est exothermique, et elle produit un excès de chaleur de 482 kJ pour 2 moles d’hydrogène, soient 241 kJ par mole de H2.

Résultat : cela équivaut à 120,5 kJ/g, donc 120,5 MJ/kg d’hydrogène.

Ce résultat est sensiblement très proche de ce qu’affirme le site web étudié.

Les résultats donnés par wolframalpha peuvent donc comporter de regrettables erreurs. Ce n’est pas la première fois que je constate cela. Il convient donc de toujours recouper les infos par des sources d’infos indépendantes.

 

3). Vérification au moyen du site AZPROCEDE :

Je termine l’analyse par une troisième vérification, au moyen de ce site : http://www.azprocede.fr/Cours_GC/combustion_equation.html

La lecture nous renseigne que la réaction de combustion de l’hydrogène avec l’oxygène (avec enthalpie de formation à 25°C) libère une énergie calorifique de 241,6 kJ par mole de dihydrogène. Cela équivaut à 120,8 MJ par kg de dihydrogène.

Là aussi, comme dans la précédent vérification (la deuxième), je trouve un résultat sensiblement proche de la valeur donnée par le site web étudié.

Quand je m’étais basé sur wolfframalpha, je commençais à conclure que Minresi avait fourni une valeur fausse. Mais deux autres sources indépendantes ont prouvé que Minresi ne s’était pas trompé. En revanche, les données produites par wolframalpha ne sont pas toujours fiables, je retiens cette leçon. Si je ne m’étais basé que sur wolframalpha, j’aurais pris le risque de conclure par une connerie…

J’ai néanmoins une conclusion qui montre une légère incohérence, sans gravité. En effet, de l’hydrogène comprimé à 700 bars et dont le volume (comprimé) est de 13 litres, cela correspond à 812,5 grammes de dihydrogène dans les conditions standards de température, et non 1 kg. On a 1 kg d’hydrogène si on a 16 L de gaz comprimé à 700 bars (à 25°C).

 

© 2013 John Philip C. Manson

 

Analyse partielle de la «nouvelle encyclopédie du savoir relatif et absolu»

Un sujet d’étude intéressant : la science dans les œuvres littéraires. Si j’ai plusieurs fois pensé à parler de la crédibilité scientifique dans certains livres (romans, essais philosophiques…), je ne l’avais pas encore fait. Le moment est venu pour le faire.

S’il vous plaît, si vous êtes un grand fan inconditionnel des romans de Bernard Werber, veuillez ne pas lire cet article…

D’après Wikipedia, on peut lire que certains critiques reprochent aux romans de science-fiction de Bernard Werber de présenter certains concepts d’apparence scientifique comme des certitudes alors que ce n’est pas le cas ; et que L’Ultime Secret illustre bien cette tendance, on peut y lire sur la quatrième de couverture la phrase suivante : « Ils vont aller de surprise en surprise jusqu’à l’extraordinaire dénouement basé sur une découverte scientifique peu connue mais réelle ». D’autres critiques assimilent la futurologie à de la pseudo-science.

Ce n’est pas moi qui le dit, c’est l’article de Wikipedia. Mais pour se donner une idée claire des ouvrages de Werber, c’est de les lire. L’auteur qualifie parfois ses œuvres comme de la  philosophie-fiction ; je trouve ce terme pertinent et mieux adapté que celui de science tout court. Heureusement. Le style de l’écrivain est celui de la science-fiction et les contes philosophiques, et ne se proclame pas comme scientifique. La démarcation est implicite, mais cependant je me demande si le grand public prend réellement conscience de la distinction entre la fiction littéraire et la science. Les oeuvres de Werber rencontrent un grand succès, c’est de la littérature comme n’importe quels romans, et si j’avais été bien plus jeune je pense que ses livres figureraient dans ma bibliothèque parce qu’autrefois mon esprit tourmenté mélangeait naïvement les diverses influences issues indifféremment de la science ou de la fiction. Lire Werber pour se divertir et se distraire, pourquoi pas ? Toutefois, croire que de tels livres sont de la vulgarisation scientifique (au sens pédagogique) est un égarement. Je vais l’expliquer ici bas. Un égarement provoqué par les lecteurs eux-mêmes si ceux-ci ne font pas la différence entre ce qui relève de la science et ce qui relève de la littérature.

Ce qui va suivre dans mon présent article est une analyse critique. Le but n’est absolument pas de fustiger un écrivain. Tout le monde peut lire Werber à volonté. Il vaut mieux même lire pour analyser que critiquer sans même avoir lu. On peut librement se distraire en lisant des oeuvres de fiction, même moi j’en lis parfois. Par exemple, je vois en Jules Verne un très grand auteur de science-fiction, pour la qualité de son réalisme. Puis côté réalisme dans la littérature, je suis un lecteur inconditionnel de Maupassant.

À la TV, l’émission «Temps X» fut divertissante, animée par deux célèbres jumeaux (les frères Bogdanoff) dont le style à l’époque (1979) était tout à leur honneur, comparé à aujourd’hui…

Ma démarche est explicite à propos du livre : lire pour analyser, éviter de critiquer sans avoir lu, et surtout éviter de prendre de la fiction pour de la vulgarisation scientifique.

Donc pour revenir à l’objet de mon article ici, je prépare l’analyse de quelques paragraphes divers du livre «Nouvelle encyclopédie du savoir», afin de mettre en évidence une différenciation épistémologique transparente entre les faits scientifiques et la fiction littéraire liée au style de l’écrivain.

Il existe une distinction entre la science-fiction, la science fictive et la science tout court.

Ci-dessous, la relecture du livre de Werber, à travers laquelle le texte de fiction est confronté à mes arguments basés sur la vulgarisation scientifique.

ANALYSE de «Nouvelle encyclopédie du savoir relatif et absolu»

[aux éditions Albin Michel (2009)]

Premier paragraphe intitulé «Au début» :

  • «L’univers, c’était du rien avec un peu d’hydrogène.»

Ou il n’y a rien, ou il y a tout. Le commencement de l’univers, le Big Bang, était très dense et très chaud, toute la matière était réunie, et partout. Ce n’était pas «rien».

  • «H. Et puis il y a eu le réveil. L’hydrogène détone.»

H, c’est la lettre majuscule qui désigne l’élément chimique hydrogène. L’atome d’hydrogène est constitué d’un proton et d’un électron.

Le réveil ? Le Big Bang n’est pas un état d’attente suivi ensuite par un événement soudain. Le Big Bang est le commencement de l’espace et du temps. Il n’y a pas proprement dit un «réveil» avant même le Big Bang, puisqu’il n’y avait pas d’avant. Le Big Bang existe à partir de l’existence de l’espace-temps à partir duquel on peut décrire, connaître et comprendre les lois naturelles de la physique. Avant l’espace et le temps, il n’y a rien à expliquer, c’est hors de portée de la science.

L’hydrogène détone ? La détonation est le résultat d’une combustion rapide, entre l’hydrogène et l’oxygène, par réaction chimique. Mais cela n’a rien à voir avec le Big Bang.  Le Big Bang est un état très condensé de matière exotique très chaude à partir duquel des particules élémentaires (des quarks) ont rapidement formé des atomes d’hydrogène. Mais lors du Big Bang, l’hydrogène ne s’enflamme pas avec l’oxygène car l’oxygène était absent, et en plus la température était beaucoup trop élevée pour faire des réactions chimiques.

  • «Le Big Bang explose et ses éléments bouillants se métamorphosent en se répandant dans l’espace.»

Le Big Bang n’est pas une explosion. C’est une erreur conceptuelle fréquente. Le Big Bang est une expansion de l’espace, le Big Bang n’est pas une explosion classique de matière très chaude qui remplit un espace froid infini absolument vide. Le Big Bang a eu lieu partout, en tout point de l’espace. Il n’est pas une explosion locale et isolée.

  • «H, l’élément chimique le plus simple, se casse, se mélange, se divise, se noue pour former des choses nouvelles. L’univers est expérience.»

Oui, l’hydrogène est l’élément chimique le plus simple. Plus précisément l’isotope 1 (un proton, un électron, pas de neutron(s)), les autres isotopes de l’hydrogène étant «moins simples» : le deutérium (un neutron en plus) et le tritium (avec deux neutrons) lui-même radioactif.

Mais voila, l’élément le plus simple, et parce que c’est le plus simple, l’hydrogène (constitué d’un seul proton), il ne se casse pas. La fission nucléaire concerne seulement les atomes les plus lourds, comme l’uranium et le plutonium par exemple. Les noyaux les plus légers, comme l’hydrogène, le deutérium, l’hélium et le tritium, peuvent seulement fusionner entre eux (fusion thermonucléaire) pour former des noyaux plus lourds.

Pour former des choses nouvelles, l’hydrogène n’a pas besoin de changer sa nature. Une étoile prend forme par la contraction gravitationnelle de grandes étendues d’hydrogène gazeux. C’est seulement après sa mise en forme (une sphère ou plutôt géoïde) qu’une étoile commence à rayonner sa lumière, lorsque l’hydrogène fusionne pour produire de l’hélium. De très grandes étendues d’hydrogène peuvent former des galaxies, mais quasiment toute la matière de ces vastes ensembles est composé d’hydrogène à ses débuts.

L’univers une expérience ? J’aurais formulé ça autrement. Si c’est une expérience, elle est l’œuvre d’un hasard aveugle et dénué d’intentionnalité. Philosophiquement, la science se fie plutôt au principe anthropique faible. Il n’y a pas d’expérience si l’univers n’a pas d’auteur. Une expérience nécessite des observateurs qui cherchent des résultats. Mais la question métaphysique d’un quelconque démiurge reste à jamais indécidable parce que scientifiquement invérifiable et donc irréfutable. On ne peut donc pas prouver que l’univers est lui-même une «expérience».

  • «L’ensemble de notre univers-espace-temps local, qui était composé à 100% d’hydrogène, est maintenant une soupe remplie d’atomes bizarres selon les proportions suivantes : 90% d’hydrogène, 9% d’hélium, 0,1% d’oxygène […]»

L’idée d’espace-temps local n’a pas de sens, puisque le Big Bang s’est produit partout, cela concerne tout l’espace-temps, et le résultat est le même partout. Le Big Bang n’est pas un événement qui s’est produit dans un endroit privilégié de l’univers.

100% d’hydrogène ? Ce fut le cas très tôt lors du Big Bang, mais très peu de temps (dans les 3 premières minutes). La nucléosynthèse primordiale (vers 1 milliard de degrés Celsius) a rapidement entraîné la fusion thermonucléaire d’une partie de l’hydrogène pour former du deutérium, de l’hélium, du lithium et du béryllium avant même l’apparition des premières étoiles.

Puis concernant la composition chimique de l’univers, le modèle actuel présuppose que la matière visible ordinaire ne représente qu’une petite fraction (0,3%) de ce qui existe dans l’univers, le reste étant a priori majoritairement constitué de matière noire et d’énergie noire.

Concernant la matière chimique ordinaire, ce document sur les preuves du Big Bang indique ces proportions : 75% d’hydrogène et 25% d’hélium, et les autres éléments chimiques à l’état de traces. Mais les proportions indiquées par Bernard Werber sont plutôt proches des proportions chimiques du soleil, et non celles de l’univers plus généralement : «hydrogène à 92,1 % et hélium à 7,8 %», et oxygène à 0,061%. Ma remarque est confirmée par cette phrase dans une page de La Recherche : «Dès les années 1940, les astronomes mesurent la répartition de la composition chimique de l’Univers et trouvent partout 75 % d’hydrogène, 25 % d’hélium et des traces d’éléments plus lourds».

Au lieu de l’expression confuse «espace-temps local», ou même «En ne citant que les éléments chimiques les plus répandues dans notre univers-espace-temps», l’auteur aurait dû dire plutôt «système solaire» afin de distinguer celui-ci de la composition chimique de l’univers.

Deuxième paragraphe, intitulé «Réalité parallèle» :

  • «La réalité dans laquelle nous sommes n’est peut-être pas la seule. Il existerait d’autres réalités parallèles.»

Si l’idée est séduisante, elle n’est pas (pour l’instant) une hypothèse scientifique crédible. Cette idée métaphysique de réalité parallèle est souvent évoquée dans les débats philosophiques. En physique, à propos des réalités parallèles, comment concevoir une expérience ou une observation permettant de vérifier si l’hypothèse est reliée à des faits ou de réfuter l’hypothèse à travers ces faits ? Je me pose la question depuis longtemps à propos de certaines théories, comme la théorie des cordes et certaines interprétations plus ou moins loufoques de la physique quantique. Comment prouver ou réfuter l’existence de dimensions spatiales  supplémentaires ? Comment prouver ou réfuter l’existence d’univers parallèles ? Les théories scientifiques (même les plus crédibles) sont des représentations faillibles de la nature, elles ne sont pas la vérité en soi ; mais des idées a priori non expérimentables en physique ne représentent rien de concrètement factuel… Des idées exemptes de l’appui des faits, pour moi et pour les scientifiques, sont des fables. La conviction n’est le fruit que de la preuve.

Si le concept de «matière noire» commence à trouver enfin des voies expérimentales (http://www.futura-sciences.com/magazines/matiere/infos/actu/d/physique-detecter-matiere-noire-grace-rmn-48829/#xtor=EPR-17-%5BQUOTIDIENNE%5D-20130911-%5BACTU-Detecter-la-matiere-noire-grace-a-la-RMN–%5D), le concept d’univers parallèles reste invérifiable à ce jour.

  • «Par exemple, alors que vous lisez ce livre dans cette réalité, dans une autre réalité vous êtes en train de vous faire assassiner, dans une troisième réalité vous avez gagné au loto […]»

L’idée des univers parallèles est fortement inspiré de la physique quantique, mais ce qu’on appelle la superposition d’états concerne les très petites échelles d’espace. À notre échelle macroscopique, la décohérence quantique rompt cette superposition. Les univers parallèles, jusqu’à preuve du contraire, appartiennent à la science-fiction. Il convient de se souvenir que les modèles mathématiques sont une représentation faillible de la réalité, ils ne sont pas censés être la réalité elle-même, ni ne sont censés se substituer à la réalité pour dire que les maths elles-mêmes sont la trame et la cause de la réalité. Ce genre d’inversion de cause à effet est similaire au débat stérile comme celui du paradoxe de l’oeuf et de la poule, ainsi que certains détails des thèses créationnistes qui tentent de convaincre que la conscience précède la matière, alors que la conscience ne peut exister sans structure matérielle (les réseaux de neurones et réseaux neuromimétiques : pas de pensée sans cerveau).

  • «Pour un physicien quantique il est acceptable de dire que le chat est à 50% mort et à 50% vivant.»

En physique quantique, on dira plutôt que la superposition d’états indique que le chat de Schrödinger (rappel : c’est une expérience de pensée, et le chat est allégorique et fictif) est à la fois mort et vivant. Il est vrai que c’est une question de probabilités.

  • «[…] il existe une personne qui sait si le chat est mort ou si le chat est vivant même sans ouvrir la boite : c’est le chat lui même.»

À première vue, c’est logique. Mais le chat est fictif, il sert à représenter le comportement des particules à l’échelle subatomique. Les particules élémentaires, elles, n’ont pas de conscience, la matière inerte n’a pas conscience de son propre environnement…

Les êtres vivants les plus simples, les virus, sont composés de quelques centaines ou milliers d’atomes. Un codon d’ADN ou d’ARN se compose lui-même de moins de 100 atomes. Imaginer une forme de vie dont la taille est en-deçà de la taille minimale d’un gène est un non-sens en biochimie et en génétique. À l’échelle subatomique, donc à une dimension inférieure à celle d’une seule molécule, la superposition d’états se produit chez les particules concernées, mais à cette échelle il n’existe aucun observateur…

  • «De toutes les planètes connues, la Terre est la plus complexe.»

Au niveau des phénomènes biochimiques et biologiques, oui c’est vrai, la complexité est à son paroxysme en ce qui concerne la vie sur Terre. Mais au niveau des phénomènes géologiques, la Terre est aussi ordinaire qu’une autre planète. L’une des grosses lunes de Jupiter, Io, se caractérise bien par une activité volcanique et tectonique assez complexe, par exemple.

  • «[…] deux forment de vie qui culminent par leur intelligence. Les hommes et les fourmis.»

Les fourmis sont des insectes sociaux. Cependant, il s’agit d’une forme d’intelligence collective et décentralisée, une forme d’intelligence assez simple en somme, mais qui assure la survie de leurs espèces (il y a de nombreuses espèces de fourmis) depuis au moins 100 millions d’années, ce qui est remarquable. Les abeilles sont moins connes, car moi je mange du miel, ce que les fourmis ne fabriquent même pas… 😉 Les abeilles et les fourmis forment une même famille : les hyménoptères.

Quant à l’intelligence humaine… J’en doute… On ne peut pas mesurer ce qu’on appelle «intelligence», car ce n’est pas vraiment bien défini. Les tests de QI présentent une marge d’incertitude trop importante et qui interdit par conséquent de conclure sur les résultats de façon objectivement fiable ; mes arguments ici :  https://jpcmanson.wordpress.com/2012/05/24/experience-statistique-sur-9-tests-de-qi/

L’intelligence animale est particulièrement le fait des mammifères comme les singes anthropoïdes, de certaines espèces d’oiseaux comme les corvidés, des chiens, des éléphants, des dauphins…

  • «Autour d’un atome, on trouve plusieurs orbites d’électrons. Certains sont tout proches du noyau. D’autres sont éloignés.»

Le mot «orbite» est plutôt utilisé en mécanique céleste et en astronomie. Pour les électrons autour d’un noyau, on parle d’orbitales.

Il peut n’y avoir qu’une seule orbitale : c’est le cas de l’atome d’hydrogène et de l’atome d’hélium. Dans ce cas, il s’agit de l’orbitale 1s². Au-delà de l’hélium, les atomes possèdent plusieurs orbitales.

Puis, un électron proche ou éloigné du noyau, c’est trivial… Éloignement très relatif, car à l’échelle de l’atome, une orbitale a une taille d’environ un dixième de millionième de millimètre.

En physique, les orbitales électroniques ne sont pas des orbites précises, la structure de l’atome est assez floue, entachée d’incertitude quantitative sur la position, la masse et la vitesse des électrons. On parle alors de nuage électronique.

  • «Déplacer un électron d’une couche basse pour l’amener à une couche plus haute, […] : il rayonne, […]. Par contre, si on déplace un électron d’une orbite haute pour l’amener dans une orbite plus basse, c’est le contraire qui se produit.»

À vrai dire, l’écrivain a inversé le phénomène décrit, c’est le contraire qui se produit.

En fait, l’électron passe d’une orbitale basse vers une orbitale haute quant il a absorbé un photon, donc il ne rayonne pas de photon…

En effet, d’après le spectre de l’atome d’hydrogène, lorsque l’électron passe d’un niveau élevé à un niveau plus bas, il émet un photon dont l’énergie vaut la différence entre celles des deux niveaux ; ainsi, la lumière émise ne peut prendre que quelques valeurs discrètes ; c’est ce que l’on appelle son spectre.

D’après le texte de Werber, il faut déplacer un électron, mais justement pour déplacer un électron vers une orbitale plus éloignée du noyau, il faut exercer quelque chose dessus : en envoyant un photon que l’électron absorbe. Dans le cas d’un atome excité, quand un électron passe d’une orbitale haute à une orbitale basse, il gagne de l’énergie qu’il doit donc céder en émettant un photon. Mais lorsque l’atome est à son état fondamental, l’électron qui passe d’une orbitale basse vers une orbitale haute ne peut le faire que s’il absorbe un photon incident dont l’énergie est égale à la différence des deux niveaux des énergies des orbitales.

  • Ensuite, Werber parle d’un «neuropsychologue américain, le professeur Rosenzweig,  de l’université de Berkeley, qui a voulu connaître l’action du milieu sur nos capacités cérébrales». Werber cite aussi une expérience faite sur des hamsters, et raconte que les hamsters ayant été occupés à diverses activités présentaient des différences corticales par rapport aux hamsters qui étaient restés oisifs.

Werber précisa pour les hamsters actifs que leur masse corticale était de 6% de plus que le groupe témoin, et la taille des neurones était 13% de plus que ceux du groupe témoin.

J’en déduis moi-même que la densité des neurones des hamsters actifs aura diminué de 26,5% par rapport à la densité des neurones des hamsters oisifs. Pourquoi n’y a t-il pas conservation de la densité ? Quelles molécules se sont accumulées dans les neurones actifs ?

Rosenzweig est le nom de plusieurs scientifiques homonymes. Comme on ne connaît pas le prénom du professeur, je dois rechercher sur Google afin de savoir de quel savant il s’agit. Je découvre qu’il s’agit probablement de Mark R. Rosenzweig (1922-2009), c’était un authentique chercheur américain spécialisé dans l’étude de la neuroplasticité animale. Rosenzweig a montré que le cerveau animal ne devient pas mature à l’issu de l’enfance mais qu’il continue de se développer et de se remodeler, de s’adapter.

L’expérience de Rosenzweig, narrée par Werber, fut réalisée en 1947, mais avec des rats, pas avec des hamsters.

Puis en réalité, Rosenzweig a montré qu’un environnement enrichi (des jeux pour les rats) augmentait l’activité d’une enzyme : la cholinestérase. Une enzyme c’est une protéine. C’est seulement en 1962 qu’il a découvert que l’activité ludique des rats entraînait une augmentation du volume de leur cortex. En 1987, Rosenzweig publia un livre : «Enriched and Impoverished Environments: Effects on Brain and Behavior» (Environnements enrichis et appauvris : effets sur le cerveau et le comportement).

Vu sur un blog de WordPress, un extrait de l’encyclopédie de Werber :

  • «L’humanité a connu trois vexations.»
  • «La première c’est Nicolas Copernic qui a déduit de ses observations du ciel que la Terre n’était pas au centre de l’univers.»
  • «La deuxième c’est Charles Darwin qui a conclu que l’homme descendait d’un primate et était donc un animal comme les autres.»
  • «La troisième c’est Sigmund Freud qui a signalé que la motivation réelle de la plupart de nos actes politiques ou artistiques était la sexualité.»

Trois vexations ? J’aurais formulé ça autrement. Des (vraies) découvertes scientifiques sont des bienfaits. La science est significatrice de progrès. La science n’est pas un châtiment, elle est un outil qui sert l’humanité.

Nicolas Copernic, mathématicien et astronome, a énormément contribué à la science, un pas de géant. Il a brisé un tabou. À partir de son travail, on a peu à peu compris que les faits ont prévalence sur les dogmes bibliques. C’est un bienfait de s’affranchir des croyances qui font de nous des esclaves de l’absolutisme et de l’obscurantisme.

Ensuite, Darwin s’est appuyé sur des fossiles et des données géologiques pour étayer sa théorie de l’évolution des espèces, montrant que l’Homme n’est pas une création divine mais un animal ordinaire parmi les autres. C’est un bienfait de mieux connaître notre propre espèce et de comprendre l’organisation de la vie. Là encore, la science prévaut aux dogmes bibliques. La science enseigne des connaissances factuelles, elle apprend à observer et expérimenter. La religion n’enseigne qu’à croire et à obéir. De nos jours encore, certaines mouvances font propagande de doctrines créationnistes (qui se proclament de la science qu’elles rejettent pourtant) selon lesquelles la Terre n’a que 6000 ans et que l’Homme fut créé directement par Dieu (et parfois disent que l’Univers fut créé par une intelligence transcendante (Intelligent Design).

Freud ? Il a institué un dogme tenace (la psychanalyse), sans l’appui de preuves. Il n’y a pas d’observations cliniques comme bases à la psycho-théorie de Freud. L’idéologie de Freud est un dogme entièrement construit sur des interprétations personnelles imaginaires, subjectives et fictives. De plus, la doctrine de Freud est homophobe… La psychanalyse est une pseudo-science.

La véritable vexation, la véritable honte, c’est la survivance tenace de dogmes obscurantistes (dont certains dogmes s’autoproclament scientifiques) à notre époque. Voila le vrai scandale.

Comme on a un bon aperçu des deux paragraphes traitant de science dans le livre de Werber, ainsi qu’une analyse intéressante qui en a résulté, je pense qu’il n’est pas nécessaire de continuer d’analyser le reste du bouquin, je vais m’en arrêter là, l’analyse a été suffisamment concluante…

Je clos l’analyse critique de cette «nouvelle encyclopédie du savoir relatif et absolu» par une citation de Bernard Werber lui-même : «Allons jusqu’au bout de nos erreurs sinon nous ne saurons jamais pourquoi il ne fallait pas les commettre».

Quelle ironie.  😀

BIBLIOGRAPHIE ET VULGARISATION SCIENTIFIQUE

  • Comme j’aime (et préfère) les bouquins scientifiques intéressants, et si d’éventuels lecteurs sont en quête désespérée de livres plus rigoureux, je recommande le livre d’un des plus grands mathématiciens actuels, Cédric Villani, «Théorème vivant» (éditions Grasset), dans lequel il expose les étapes de ses recherches en mathématiques sur « l’amortissement de Landau » et l’équation de Boltzmann. Passionnant et instructif. À voir absolument. Contenu compréhensible surtout par ceux qui ont un background scientifique (mais les scientifiques ne comprennent pas toujours leurs collègues, lol).
  • Autre livre que je recommande : « Petit cours d’autodéfense intellectuelle » par Normand Baillargeon. Très intéressant.
  • Je pense personnellement que les gens désirant s’informer via la vulgarisation scientifique doivent s’appuyer sur des bases scientifiques non ambiguës et adaptées, avec l’aide d’un certain contrôle académique. MM. Villani et Stephen Hawking sont d’excellents exemples de vulgarisateurs.
  • Dans des livres de styles plus littéraires, la science est souvent romancée, parodiée, caricaturée, la science se laisse construire une image faussée, biaisée et/ou lacunaire dans l’esprit du public, et je trouve cela dangereux. Par exemple, je connais un lecteur de vulgarisation scientifique, et qui croit à tort que les connaissances révélées sont absolument définitives et inaliénables, alors que la science a une démarche de remise en question de tout. En effet, la science n’est pas une accumulation de vérités, mais une attitude iconoclaste qui brise des «certitudes», en remettant à plat les données du réel et les interprétations construites sur tout cela. Créer des vocations scientifiques peut passer par des méthodes ludiques, amusantes, divertissantes (comme l’opération «La main à la pâte»), pourvu que le rôle didactique soit rempli, en montrant ce qu’est vraiment la science à travers la méthode scientifique et à travers les critères épistémologiques. Ce que je veux dire, c’est qu’il existe un danger latent : des personnes ont une vocation soudaine pour la science, mais à travers de la mauvaise vulgarisation, ces personnes tombent des nues quand elles entreprennent des études scientifiques, leur déception envers la science peut entraîner un rejet, et pire, une dissuasion par les déçus envers d’éventuels néophytes sur le point d’avoir une vocation scientifique. Présenter ce qu’est vraiment la science, sa définition, ça évite bien de mauvaises surprises. La science, c’est de la logique, de la rigueur, une exigence d’objectivité, la nécessité d’observations et d’expériences. La science n’est pas exactement de la philosophie, la science accepte toutes les hypothèses, seulement si celles-ci ont la possibilité d’être réfutables. La philo est un argumentaire d’idées orientées par la raison des philosophes. La science, elle, repose aussi sur des arguments, mais ceux-ci sont nécessairement appuyés par des faits, au moyen des observations et des expériences. La science n’est pas de la métaphysique. Les fables, elles, n’appartiennent qu’aux conteurs… et aux politiciens… La vulgarisation scientifique, bref, ça peut être aussi un jeu, mais un jeu sérieux avec lequel on ne peut pas se permettre de faire et dire n’importe quoi, surtout s’il y avait une quelconque idéologie sous-jacente. Dans les livres, avec les livres, tout est possible, oui, y compris d’apprendre des erreurs, des préjugés, des concepts eux-mêmes mal compris, y compris le risque de transmettre ces erreurs à notre tour. Non, il n’est jamais trop tard pour réagir. Lire, apprendre à lire, qu’est-ce que c’est, finalement ? Répéter phonétiquement les mots ? Pas seulement. Comprendre le sens des mots ? Pas seulement. Comprendre le sens des concepts ? Oui, mais pas seulement. Apprendre vraiment à lire des livres, en particulier des livres de vulgarisation scientifique, c’est comprendre d’abord le contexte raconté, puis ensuite procéder à une patiente analyse critique avec l’aide de connaissances acquises ou nouvelles qui servent à croiser les informations. Ainsi, c’est par les comparaisons que l’on débusque les contradictions et les erreurs dans les bouquins. C’est la politique même de mon blog ici. Même de bons livres peuvent contenir au moins une erreur. Exemples de preuves ici : https://jpcmanson.wordpress.com/2012/12/28/une-erreur-dans-un-livre-de-thermodynamique-pour-ingenieurs/ et là : https://jpcmanson.wordpress.com/2011/12/03/les-encyclopedies-sont-elles-sans-erreurs-et-infaillibles/ et un prof démontre l’existence d’un manque de travail critique : https://jpcmanson.wordpress.com/2012/03/22/contre-le-plagiat-un-prof-piege-ses-eleves/

Pour ainsi dire, j’aime beaucoup la littérature. Cela dépend des styles. Et cela dépend aussi de la façon dont la science est représentée dans la littérature. Les auteurs eux-mêmes font leur métier par passion, les lecteurs aiment lire. Une façon plus profonde de lire est de réfléchir sur ce qu’on lit, surtout dans l’expression de phrases qui évoquent la vérité, la connaissance, la science. Dès que ces expressions apparaissent, je deviens extrêmement sensible et éveillé qu’un sismographe à l’affût.

Ne jamais signaler des erreurs dans la littérature quand elles concernent plus ou moins directement les sciences, ce serait trahir l’esprit humain, ce serait déshonorer notre mission, ce serait discréditer ce que nous savons ce qu’est la science. C’est un devoir de faire un compte-rendu des erreurs que l’on découvre. Le grand public a le droit d’être informé. Si créer des vocations scientifiques est une nécessité, il faut aussi que de nouvelles générations de vulgarisateurs scientifiques reprennent le flambeau quand les plus anciens ne seront plus là pour ce travail. J’aurais trop peur que cet esprit de résistance s’arrête un jour, que le peuple devienne peu à peu anesthésié par les médias, peur que les fictions l’emportent sur les faits, pour longtemps.  N’attendons pas que nos libertés soient en péril pour réagir. La littérature gentillette comme celle que j’ai analysé ici, ça peut céder la place à de la littérature plus hard dont les auteurs sont de dangereux gourous, avec leur programme de déprogrammation des cerveaux et d’embrigadement des jeunes. La transition de la façon de penser, dans la société, peut être rapide. Basculer dans l’obscurantisme est plus rapide qu’on ne le croit. N’importe quel secteur d’activité est vulnérable aux dérives. La science n’échappe pas à cette éventualité, et c’est pourquoi j’en parle. Le domaine de la vulgarisation scientifique est un terrain vulnérable, il faut agir de façon à ce que le public connaissent d’abord ce qui définit la science avant d’accumuler des connaissances issues de divers médias de toutes sortes. Même au sein de la vulgarisation scientifique, il existe un début de dérives.

Quelques pistes pour prendre conscience que, entre science et journalisme, c’est bancal :

Je vous le dis : jusqu’où ces dérives peuvent-elles conduire si aucune initiative d’analyse critique pour les contrer n’est décidée ?

Pour terminer, qu’est-ce qu’une encyclopédie ? Sa définition ? Comparer entre l’encyclopédie des arts et des sciences à l’époque de Diderot et Voltaire, et l’idée actuelle d’une encyclopédie à l’ère d’Internet ? Je pense que ce mot a vraiment perdu de sa saveur…

Ce présent article n’est pas une critique des qualités littéraires d’un écrivain, ni même une attaque personnelle. L’article dresse ici une analyse lucide sur l’amalgame  entre la création littéraire et la prétention à la vulgarisation scientifique, en montrant utilement l’existence nécessaire d’une démarcation entre fiction littéraire et faits objectifs. Je n’ai personnellement rien contre la littérature, la science-fiction et l’imaginaire, je suis moi-même occasionnellement lecteur de ces ouvrages, je fais seulement remarquer que l’on ne peut pas tout mélanger et prendre le risque d’induire les lecteurs dans des concepts erronés présentés à tort ou à travers comme des concepts scientifiques éprouvés. En effet, on ne peut pas affirmer que la science-fiction est de la science, ni que des romans sont tous basés sur des faits réels. On peut dire science-fiction et philosophie-fiction pour un roman subjectif, mais pas y attribuer l’appellation de vulgarisation scientifique. Sinon, à ce moment-là il faudrait déclarer que les livres de Tolkien («Le seigneur des anneaux») sont aussi des références scientifiques solides, ce qui serait vraiment absurde.  😉

Et pourtant, suite à la publication de ce présent article, au moins un lecteur fan de Werber m’a toisé en me disant aveuglément que c’était moi qui était égaré et que le romancier disait des vérités scientifiques irréfutables… Tsssss. Quelle mauvaise foi…

© 2013 John Philip C. Manson

Les calculs du bilan carbone

Un moyen rapide pour trouver des textes à analyser : par exemple, on recherche «CO2» dans les blogs de wordpress.com.

Ainsi, je tombe sur cet article intéressant : http://developpementdurabletl1.wordpress.com/bilan-carbone-dun-plan-de-communication/

  • Je cite : « Par définition, un kg de CO2 “pèse” 0,2727 kg d’équivalent carbone. Il s’agit en fait du ratio destiné à mesurer le poids du carbone seul dans le CO2. »

En chimie quantitative, il n’est pas difficile de vérifier ça. Une mole de carbone pèse 12 grammes, tandis qu’une mole de dioxyde de carbone pèse 44 grammes (somme des masses d’atomes présents dans une mole de CO2 : 12 + 16 + 16, car il y a 32 grammes d’oxygène dans une mole de CO2). Le rapport des masses vaut 12/44 = 6/22 = 3/11 = 0,2727. C’est exact, 1 kg de CO2 contient 0,2727 kg de carbone. Il ne s’agit pas seulement d’équivalence : il existe réellement des atomes de carbone dans les molécules de CO2.

  • Je cite : «Pour le papier : 1 tonne d’eq carbone = 1,8t de papier»

Ça aussi, c’est vérifiable au moyen de la chimie quantitative. Une mole de carbone, on le sait déjà, ça pèse 12 grammes. Le papier, lui, c’est de la cellulose. On va supposer que le papier est composé de 100% de cellulose. Une mole de cellulose pèse 162,1406 grammes, selon la formule brute (C6H10O5)n.

Il y a 6 moles de carbone dans une mole de cellulose, par conséquent il y a 6×12 = 72 g de carbone dans 162,1406 g de cellulose. Donc concrètement d’après la chimie quantitative, une tonne de carbone est contenue dans 2,25 tonnes de papier. Mais pas 1 tonne pour 1,8 tonne…

Mais si «l’équivalent carbone» désignait plutôt le CO2 que le carbone lui-même, alors 264 g de CO2 pour 162,1406 g de cellulose, ce qui conduit à dire qu’une mole de cellulose peut produire par combustion 6 moles de CO2, soit 1,628 tonne de CO2 pour 1 tonne de cellulose. 

  • Je cite : «En France, un kWh électrique produit 0,09 kg CO2»

Dans mon article précédent, https://jpcmanson.wordpress.com/2013/01/01/internet-est-il-ecologique/, on a observé que, en 2010 en France, sur les 539 TWh produits annuellement, on remarque que la biomasse (6,06 TWh) et les énergies fossiles (55,52 TWh) représentent 61,58 TWh, soit 11,42% de la production électrique totale

Comme on a vu aussi que, selon ADEME, le kilowatt-heure électrique est équivalent à 900 g de CO2, alors compte tenu des 11,42% d’origine thermique à gaz et à charbon et la biomasse, alors en 2010 le kWh électrique français équivaut à 102,78 g de CO2, mais pas 0,09 kg (90 g), mais c’est à peu près le même ordre de grandeur, la différence massique étant de 14,2%.

  • Je cite : «Ordinateur : PC portable consommation moyenne  0,0017kWh.»

0,0017 kWh, je veux bien, mais en combien de temps ?…

0,0017 kWh équivaut à une quantité d’énergie électrique de 6,12 kJ, soit 1,46 kilocalories.

.

  • Je cite cet extrait : pc_portable_eco

5,47 heures par jour = 1997,9175 heures par an (c’est une moyenne).

Donc 35,4 kWh/an ça donne 0,0177 kWh par heure d’activité, soit une puissance électrique moyenne de 17,7 W pour un ordinateur portable, et je trouve que c’est faible comme puissance pour un portable…

En complément avec cet article : http://www.greenit.fr/article/materiel/pc-portable/informatique-386-kwh-par-an-et-par-foyer , on y lit que «la puissance moyenne journalière des ordinateurs portables n’est que de 5,9 W soit 6,2 fois plus faible que celle des ordinateurs fixes (36,6 W)».

Mais en me référant sur le plus petit genre de modèle de portables (netbook), je peux lire qu’ «un ordinateur Asus Aspire One 10,1″ utilise 57,7 W». Ce qui est 5 à 10 fois plus que les ordis portables plus gros donc plus gourmands en puissance.

On a vu que le papier a une équivalence en carbone (et j’avais réactualisé cette équivalence par revérification). On devrait quantifier aussi la quantité d’eau utilisée pour traiter le papier lors de sa fabrication, car ça ce n’est pas négligeable. Tout centrer sur le CO2 (le carbocentrisme) c’est simpliste, réducteur, aux calculs approximatifs, et ça occulte d’autres problèmes réels. Il n’y a pas que le carbone ou CO2 qui a un impact environnemental ! Si beaucoup de déchets sont détruits par incinération (je pense à la pollution générée par les plastiques brûlés, fumée irritante et gênante, je connais ça hélas), il y a aussi de gros gaspillages à propos de la gestion de l’eau.

 Un rappel s’impose au sujet de la consommation électrique à propos de l’équivalence en CO2 : envoyer des mails ou surfer sur le web, ça a probablement un impact en consommation électrique, mais même quand on ne fait rien devant l’écran d’un ordinateur, de l’électricité est quand même consommée. Mieux vaudrait commencer par éteindre les ordinateurs allumés s’ils ne sont pas utilisés. Le pire, c’est que de nos jours, les box ADSL restent souvent allumées en permanence.

Puis autre chose : certains auteurs publient des chiffres volontairement différents, c’est un procédé connu des moines copistes, c’est un moyen de savoir qui sont ceux qui ont recopiés les infos telles quelles sans remettre les chiffres en question. Il semble qu’un célèbre politicien a utilisé cette astuce dans les années 80 pour savoir d’où provenaient les fuites d’infos, en fournissant des documents ayant chacun des données différentes, ainsi les taupes étaient démasquées. 😉

—————————————————————————————–

  • Ensuite, dans un autre blog, je relève un extrait quantifiable : «23 000 tonnes équivalent CO2 émises en 2009. L’équivalent de 11 500 allers-retours Paris-New-York par an.»

Ce qui fait 2 tonnes de CO2 par aller-retour Paris-New York.

Deux façons d’aborder le calcul : chimie quantitative à partir de la formule du kérosène et de l’équation chimique de combustion, et le pouvoir calorifique massique du kérosène.

Le kérosène a un pouvoir calorifique de 46,4 MJ/kg. Si la masse de CO2 est du même ordre de grandeur que celle du kérosène, alors ce serait une chaleur de 92800 MJ pour 2 tonnes. Comme l’on sait qu’un kWh électrique équivaut (à 100%) à 900 grammes de CO2 (soit environ 2,27 kWh thermiques, soit 2043 g (2,04 kg) de CO2 par kWh thermique). Pour 2 tonnes, ça fait donc environ 978,95 kWh thermiques, soit ~3524 MJ pour 2 tonnes, soit 1,76 MJ/kg au lieu de 46,4 MJ/kg…

Le kérosène est un mélange d’hydrocarbures (des alcanes, entre C10H22 (le décane) et le C14H30).

Cas de la combustion du décane :        2 C10H22 + 31 O2 -> 20 CO2 + 22 H2O + 12,53 MJ/mol

Résultat :  284 g de décane génère 880 g de CO2, donc 2 tonnes de CO2 proviennent de la combustion de 645,45 kg de décane, et comme le kérosène a un pouvoir calorifique de 46,4 MJ/kg, ça fait donc 29949 MJ pour 2 tonnes de CO2, soit 14,97 MJ par kg de CO2, soit 4,16 kWh thermiques par kg de CO2, soit 240,38 g de CO2 par kWh thermique, soit presque 10 fois moins que la valeur réelle.

En examinant l’équation de combustion, on voit que le décane produit une chaleur de 44,12 kJ par gramme de décane, soit 44,12 MJ par kg de décane. Et 14,24 kJ par gramme de CO2 produit, donc 14,24 MJ/kg de CO2, soit 3,96 kWh thermique pour 1 kg de CO2, donc 252,5 g de CO2 par kWh thermique, ce qui est 12,36% du résultat auquel il fallait s’attendre.

Comme le calcul devient compliqué, on récapitule le tout. Comme modèle de kérosène, on utilise du décane pur. Un aller-retour Paris New York rejette 2 tonnes de CO2, donc cela correspond à la combustion chimique de 645,45 kg de décane. Comme la chaleur vaut 44,12 MJ par kg de décane, j’aurais donc consommé 28477,25 MJ de chaleur, soit  7910,35 kWh thermiques pour 2 tonnes de CO2, soit 3,955 kWh thermiques par kg de CO2, équivalent à 252,8 g de CO2 par kWh thermique, ce qui est bien assez inférieur aux 2043 g de CO2 par kWh thermique (comme étalon de mesure d’équivalence CO2/kWh). Il existe donc bien une incohérence entre la masse de CO2 émis et le nombre d’allers-retours entre Paris et New York. Mais si les chiffres donnés par l’énoncé sont corrects, alors le CO2 n’a pas servi d’étalon de mesure pour donner une équivalence en kWh.

En effet, en brûlant 645,45 kg de décane pour produire 2 tonnes de CO2, la chaleur libérée est de 28477,25 MJ. Tandis que la quantité d’énergie thermique en utilisant l’«équivalent CO2» sous forme de kWh, alors 2 tonnes de CO2 sont équivalentes à 978,95 kWh thermiques, soient à 3524,23 MJ (ce qui est différent des 28477 MJ ayant intervenu dans la combustion du décane pour produire 2 tonnes de CO2).

Cette observation entraîne un autre problème : peut-on vraiment voyager de Paris à New York en aller-retour avec seulement 645,45 kg de décane ? La distance entre Paris et NY est de 5851 km, or pour 2 tonnes de CO2 pour un aller-retour (2 × 5851 = 11702 km), ça fait une moyenne d’émission en CO2 de l’ordre de 170,9 g/km. C’est cohérent et crédible.

Ma conclusion est la suivante : pour le voyage en avion dans notre exemple, il ne s’agit pas d’équivalent énergétique en CO2, il s’agit d’émission directe réelle de CO2 sans aucun rapport avec une quantité d’énergie.

© 2013 John Philip C. Manson