La théorie de la relativité sera enseignée dès l’école primaire

Apparemment, la théorie de la Relativité sera enseignée dès le CM1 à la rentrée 2015-2016.

Si cela permet de comprendre les bases scientifiques d’une théorie très mal connue du public (tout comme la physique quantique, elle-même aussi très mal comprise), cela peut être utile.

Mais peut-on expliquer la relativité d’Einstein sans enseigner les bases de la relativité galiléenne ? J’en doute.

Lorsque j’étais en Terminale dans une filière scientifique, la relativité d’Einstein a été à peine évoquée en cours… J’ai cependant pu entendre parler de physique quantique, avec quelques références comme Max Planck, Schrödinger, de Broglie, Niels Bohr… Mais j’aurais personnellement préféré que ces sujets aient été plus approfondis, à mon goût. Sinon, à quoi servirait-il d’apprendre les sciences si l’on ne vient pas à l’essentiel ? Ce sont mes lectures extra-scolaires qui m’ont appris tout sur Einstein, parce que le sujet m’intéressait fortement. En dehors des lectures hors scolarité, les élèves ont très vaguement entendu parler de la théorie d’Einstein, mais savent qu’Einstein est connu, mais sans savoir franchement de quoi parle sa théorie…

Je suis d’accord sur ce constat : L’enseignement des bases de la physique moderne a pris un retard considérable en France. Il est vrai que, en regard des progrès de la science au cours du vingtième siècle, la théorie de la  relativité et la physique quantique paraissent comme entourées d’un secret mandarinal. Il est utile de connaître quelques notions précises, sans forcément être un spécialiste ni être un mathématicien chevronné.

Mais là, stupeur, il y a quelque chose que je ne comprends pas très bien. quel intérêt d’enseigner la théorie d’Einstein à l’école primaire, quand d’emblée il est déjà assez difficile de la comprendre et la maîtriser en Terminale ? Au lycée et à l’université, les professeurs de mathématiques et ceux de physique maîtrisent eux-mêmes bien ce thème, mais j’exprime mon scepticisme quant à l’efficacité du nouveau dispositif à l’école primaire, en rappelant au passage que les instituteurs ont souvent suivi un cursus littéraire plutôt qu’un cursus scientifique…Un terrain malheureusement idéal pour risquer de faire de la mauvaise vulgarisation scientifique.

Vers 2005 ou 2006, j’ai pu lire un cours sur l’astronomie pour une classe de CM2, un cours bâclé, j’y ai lu des trucs ahurissants : par exemple, « Le soleil est né grâce à des nuages de poussières d’étoile et des nuages de gaz carbonique. » Voir archive ici : http://www.archivum.info/fr.sci.geosciences/2005-11/00026/Re-Cours-pour–l-ve-de-cm2.html Alors qu’en fait le soleil est composé majoritairement d’hydrogène et d’hélium… Voila ce qui arrive quand on confie un sujet scientifique à un enseignant qui n’a pas été formé via une filière scientifique…

La vulgarisation des sciences est un métier difficile. Il est souvent dur d’expliquer la théorie de la relativité à des élèves de Terminale, et la difficulté est fortement accentuée si la théorie est expliquée à des élèves de CM1, en simplifiant au mieux la théorie tout en prenant le soin rigoureux de ne pas dénaturer ni trahir ce que dit la théorie après avoir élaboré un contenu simplifié. Encore pire si l’instituteur ne maîtrise pas très bien les sciences si l’enseignant a eu une formation littéraire plutôt que scientifique…

Je suis sceptique sur les réformes nouvelles. L’on a constaté avec effarement que le niveau des maths a diminué, quand on a vu la polémique à propos du sujet du Bac de mathématiques en 2014… Il faudrait d’abord consolider la maîtrise des maths et la maîtrise de la langue française. Voir ici : https://jpcmanson.wordpress.com/2014/06/20/la-session-2014-de-lepreuve-de-maths-du-bac-un-carnage/

Concernant la théorie d’Einstein, il faudrait la présenter de façon attrayante pour susciter une forte curiosité qui incite les élèves à développer leurs raisonnements, et les inciter à faire des recherches et des calculs. Cela vaut pour des élèves de Terminale.

L’école primaire est d’une importance fondamentale : on y apprend les bases de la lecture, de l’écriture et du calcul. Enseigner la théorie d’Einstein en CM1 est sûrement prématuré, mais cela n’empêche pas de résumer la théorie de façon à créer des vocations scientifiques, c’est le point le plus important. Il serait opportun notamment d’expliquer ce qu’est la physique quantique, qui est une théorie scientifique de la physique, appuyée par des faits, dont le fond concerne la dynamique des particules subatomiques, et qui n’a rien à voir avec le mysticisme, ni avec la spiritualité ou la médecine ou la religion ou la science-fiction (la physique quantique est dénaturée et récupérée par la secte New Age, une forme de propagande existe via Internet à travers certaines vidéos pseudoscientifiques). Expliquer ce que sont exactement certaines théories scientifiques auprès d’élèves de CM1 permettrait d’éviter des malentendus conceptuels et d’éviter certaines dérives…

Le risque à éviter concernant le CM1, c’est de parler de théories scientifiques en les présentant maladroitement comme compliquées et insolubles, rebutantes, chiantes… Il ne faut pas prendre le risque de dégoûter les élèves des mathématiques et des sciences pour longtemps, cela ne ferait qu’aggraver la crise des vocations scientifiques… Il faut du temps pour apprendre. Brûler les étapes découragerait les élèves qui ne sont pas préparés à un tel contraste entre leur niveau et celui d’élèves de Terminale…

Cela se discute : les décisions en matière de pédagogie sont-elles déconnectés des réalités et des véritables priorités ?

Plus efficace que ls gousses d’ail, l’eau bénite, le crucifix et le soleil levant ? Une page remplie de mathématiques ! Redoutable contre les vampires et les gens normaux… Effet de recul immédiat.

iconlol

Copyright 2015 John Philip C. Manson

La science est la croyance en l’ignorance des experts

  • Mon blog touche à sa fin. Je publie ici le dernier article dont le thème est un lien ci-dessous : c’est une traduction par le Dr Goulu d’un texte du professeur Richard P. Feynman. 

Le texte de Feynman est relatif à la faillibilité des savoirs et ce qui fait la science. Ce qui fait la science, ce ne sont pas les mots que l’on met sur les choses, mais l’expérience des choses.

Ce que montre Feynman est formulé différemment par rapport à l’épistémologie de Karl Popper (sur la potentialité de réfutabilité des hypothèses scientifiques), mais c’est sur le même principe. C’est très bien que le Dr Goulu ait publié ce texte.

Feynman explique que l’on est jamais sûrs de rien. En ce sens, comme je l’avais déjà raconté dans mon blog : la science est fondée sur des expériences et des observations, mais pas sur la confiance envers des opinions, ou des experts, ou des idéologues. Cela peut paraître choquant pour certaines personnes qui ont une préférence pour des vérités définitives et immuables, mais c’est la Nature qui fait ce que les choses sont (et on apprend à mieux connaître la Nature si possible, avec des expériences), ce ne sont pas les experts qui décident ce que doit être la Nature. Ce n’est pas le jargon qui fait la science, mais ce que l’on fait sur le terrain. Cela ne signifie pas la relativité des savoirs où toutes les opinions se valent (comme le pensait Feyerabend et le postmodernisme intellectuel et, aujourd’hui, un certain négationnisme antiscientifique), l’expérimentation a prévalence sur les mots eux-mêmes. Des mots sans exploration du problème, sans l’approfondissement d’une idée, sans des observations concrètes, ne veulent rien dire et n’enseignent rien.  «Qu’est-ce qui fait bouger ce jouet ?» «L’énergie». Mettre le mot « énergie » sur une chose n’apporte guère la compréhension du phénomène.

Les mots sont le propre de l’Homme, et l’être humain est faillible.

Selon moi-même, ce qui fait un livre de science ou de vulgarisation scientifique, c’est un livre qui montre comment réaliser des expériences ou qui explique comment des expériences ont été conduites (c’était le cas de Science-et-Vie jusqu’à la fin des années 1990, avec les rubriques «l’informatique amusante» et la «chimie amusante» et la «biologie amusante»). Mais un livre rempli uniquement de mots, sans inciter et encourager à expérimenter par nous-mêmes, n’est pas vraiment un livre de science.

feynman1

« Nous ne pouvons pas définir n’importe quoi précisément. Si nous y tentons, nous allons dans cette paralysie de la pensée qui vient des philosophes…  L’un qui dit à l’autre : vous ne savez pas de quoi vous parlez ! Le second dit : que voulez-vous dire par parler ? que voulez-vous dire par « vous » ? que voulez-vous dire par savoir ? »

feynman2

« Vous pouvez connaître le nom d’un oiseau dans toutes les langues du monde, mais quand vous avez terminé, vous ne saurez absolument rien du tout de l’oiseau. Alors regardons l’oiseau et observons ce qu’il fait — c’est ce qui compte. J’ai appris très tôt la différence entre connaître le nom de quelque chose et savoir quelque chose. »

feynman3

« Ce n’est pas important combien votre théorie est belle, ce n’est pas important combien vous êtes intelligent. Si ce [votre théorie] n’est pas en accord avec l’expérience, elle est fausse. »

Bonnes fêtes de fin d’année à tous. 🙂

© 2013 John Philip C. Manson

Quand Internet résout les DM à votre place

Quand Internet résout les DM (devoirs maison = homework) à votre place.

Analyse de la situation de ceux qui demandent de l’aide ou à faire faire leurs devoirs par autrui sur Internet :

  • Quand vous êtes étudiants, vous apprenez, donc vous cherchez tout seul.
  • Quand vous avez fini vos études, vous avez un travail et vous touchez un salaire.

Il est donc hors de question de vous donner la solution…

  • Soit vous êtes lycéens ou étudiants et ce n’est pas vous rendre service que de faire vos devoirs à votre place.
  • Soit vous n’êtes pas lycéens ni étudiants, et dans ce cas on veut bien donner une solution moyennant un salaire.

Personne ne m’a aidé (c’est-à-dire : personne n’a fait mes devoirs à ma place) pendant toutes mes études scientifiques, et heureusement, car sinon je n’aurais rien appris et je serais toujours un cancre en maths maintenant.

La réussite dans les études se gagne avec notre propre sueur. C’est comme le sport : si vous êtes sportif, c’est vous qui devez pratiquer votre sport, personne ne fait de compétitions sportives à votre place…

Le dopage dans le sport c’est démodé, maintenant on engage une doublure qui fait le boulot à notre place.

iconlol

© 2013 John Philip C. Manson

Ma position par rapport au mouvement des Brights

Le Mouvement des brights regroupe des individus qui portent sur le monde un regard « naturaliste », c’est-à-dire libre de tout élément surnaturel ou mystique ; les brights fondent leur éthique et leur comportement sur une compréhension naturaliste de l’univers. S’inscrivant dans la continuité des Lumières, le réseau international des brights s’est constitué comme mouvement de visibilité de celles et ceux qui portent un regard « naturaliste » sur le monde ; le mode d’existence du réseau est basé sur l’utilisation d’internet.

  • Le naturalisme philosophique est la position selon laquelle rien n’existe en dehors de la nature : il n’y a rien de surnaturel ou, à tout le moins, que le surnaturel est sans influence sur le naturel.
  • Le siècle des Lumières est un mouvement intellectuel initié en Europe du XVIIIe siècle, dont le but était de dépasser l’obscurantisme et de promouvoir les connaissances; des philosophes et des architectes intellectuels, encourageaient la science et l’échange intellectuel, en s’opposant à la superstition, l’intolérance et les abus de l’Église et de l’État.

Voici ma vision des choses ci-dessous (c’est identique à la science actuelle, quand la méthode scientifique est respectée avec intégrité, professionnalisme et transparence) :

En ce qui me concerne, ma philosophie se base sur un naturalisme atomiste, matérialiste, mécaniste et empiriste. Je me base sur la méthode scientifique à travers le critère de la réfutabilité, dans le sens donné par Karl Popper. Le principe de réfutabilité en science a pour conséquence que la science n’établit pas des vérités inébranlables, mais des vérités faillibles fondées sur des représentations faillibles de l’univers et de la nature, à travers la recherche empirique. Ce qu’on appelle vérité est quelque chose de relatif. En revanche, des hypothèses fausses qui sont réfutées par des faits, sont infirmées définitivement. C’est la fausseté réelle des choses fausses qui est une vérité bien tranchée. Ainsi, à la lumière des faits, des connaissances peuvent être soit a priori vraies, soit certainement fausses. Une hypothèse (ou même une théorie scientifique) ne s’érige pas en vérité ; une hypothèse ou théorie est évaluée selon sa solidité par confrontation aux faits.

En physique et dans les autres sciences de la nature, une connaissance est faillible : si elle est fausse en soi, sa fausseté peut être définitivement établie, tandis que si elle est vraie en soi, on ne pourra pas prouver qu’elle est absolument vraie, on pourra juste corroborer la connaissance, on remarquera sa cohérence. Ce qu’on appelle la vérité, en sciences, ne se trouve que dans les mathématiques. Les maths sont indépendantes du monde matériel, elles sont abstraites, leurs lois leur sont propres. C’est étonnant que les maths soient autonomes par rapport au monde matériel, et qu’en même temps les maths peuvent expliquer de nombreux phénomènes matériels. Je suppose que le grand mathématicien Cédric Villani est de mon avis.   😉  Et désolé si je ne dis pas «LA mathématique», au singulier, question de (mauvaise) habitude.  🙂

De plus, les maths ont un avantage : il suffit d’un crayon et d’un papier, ou d’une craie et d’un tableau noir (mais un superordinateur pour les calculs longs c’est bien mieux). Les sciences expérimentales, elles, sont plus contraignantes : il faut un budget pour les instruments scientifiques, il faut faire un montage expérimental rigoureux (c’est facile de foirer une expérience), et parfois ça explose à la figure.

iconlol

  • Question métaphysique : la matière précède t-elle les mathématiques ? L’homme pensant invente ou crée les maths et les utilisent. Les cerveaux préexistent par rapport à l’existence des maths. Les maths existeraient-elles s’il n’existait pas d’hommes pensants ?

Je pense que les maths sont une extension de notre propre conscience. Peut-être que la conscience elle-même est un calcul auto-référent, mais je préfère vous éviter la migraine.

Retour sur ce qu’est une théorie scientifique :

methodescientifique

Pour faire une métaphore, une théorie est comme la sculpture d’une statue : on n’ajoute pas du matériau à l’ouvrage, mais on procède par élimination, on enlève ce qui est superficiel, comme si on taillait un roc informe, et l’ouvrage qui reste est ce qui est a priori vrai, sinon crédible. Mais c’est un ouvrage crédible qui ne sera jamais achevé définitivement, car il est sans cesse affiné petit à petit. A contrario, les hypothèses et théories douteuses, dans le contexte de la fraude scientifique, ou de la science fringe, ou de la pseudo-science, se caractérisent par des rustines multiples ajoutées ad hoc selon les faits nouveaux, sans même corriger ni remettre en question l’hypothèse ou la théorie érigée en dogme… Plus on rajoute des rustines sur les roues d’une théorie pour sauver celle-ci, moins le vélo roulera bien…

Ma vision naturaliste est caractérisée par des critères précis : un naturalisme scientifique dépourvu autant que possible de toute forme de subjectivité, un naturalisme fondé sur l’expérimentation et la réfutabilité. Une conception fondée sur l’utile et le nécessaire, tout en ayant conscience des incertitudes inévitables.

Jamais il ne faudrait dire qu’une théorie scientifique est vraie. Elle peut être vraie et cohérente mathématiquement, mais la physique comporte des incertitudes quantitatives que les mathématiques strictes ignorent. Par exemple, l’infini existe en maths, mais pas en physique. Une théorie scientifique n’est donc pas une vérité absolue, on dit plutôt que la théorie est crédible, à la fois par rapport aux maths, et à la fois par rapport aux expériences ou observations. Et cette crédibilité se mesure sur la cohérence propre de la théorie (accord entre les maths et l’expérience du réel) mais aussi sur la cohérence par rapport à l’édifice scientifique établi et par rapport aux sciences interdisciplinaires. Par exemple, en électrochimie, par exemple en réalisant une électrolyse : les lois de la physiques (électrostatique, électrodynamique, électromagnétisme) ne doivent pas entrer en contradiction avec les lois de la chimie (théorie de l’atome, modèle atomique, réactions chimiques).

Ensuite, jamais je n’accepte de voir la science associée à la pseudo-science et au mysticisme. Karl Popper avait posé un principe de démarcation épistémologique. Cette démarcation est une nécessité.

Et jamais je n’accepte de voir la science récupérée abusivement par des idéologies politiques ou religieuses dont la finalité est le pouvoir et le profit au mépris de la démocratie et de la liberté des peuples. La science doit rester indépendante de toute influence subjective. Le lyssenkisme sous l’idéologie soviétique par exemple. Le créationnisme par l’intégrisme chrétien ou autre, aussi, par exemple.

La désinformation est inacceptable. Tout citoyen a droit à l’information et à l’éducation. Les journalistes ont des devoirs déontologiques (Charte de déontologie du journalisme) : devoir de vérité, devoir de rectifier ce qui est inexact, devoir de rester critique, refus du sensationnalisme.

De même, le naturalisme non plus ne doit pas dénaturer la science pour servir l’athéisme. Ce que l’on croit ou ce que l’on ne croit pas ne fait pas partie de la science. Si j’avais des croyances, je les aurais mises au vestiaire quand j’entre dans l’arène de la science. En tant qu’athée ou agnostique, cela importe peu sur le suivi de la démarche scientifique. Les émotions aussi, il faut les laisser au vestiaire. Je n’ai besoin que d’un cerveau frais pour faire un raisonnement logico-mathématique, des yeux pour observer et expérimenter, et l’absence de subjectivité afin d’interpréter sans superficialité les données quantitatives des phénomènes observés.

La connaissance est un édifice faillible fondé sur une méthode qui a fait ses preuves. La science, ça marche, mais des conditions sont à respecter.

Si dépasser l’obscurantisme et promouvoir les connaissances sont l’objectif des Brights, je vais plus loin que ça. Comment ça ? La connaissance pourrait être vue comme une vérité qui abolit les mensonges de l’obscurantisme. Dans mon blog, j’ai montré que même des connaissances à l’apparence scientifique, à travers les médias de tous les jours, sont matière à tromperies, erreurs, lacunes et croyances… Le scepticisme scientifique, selon moi, doit s’appliquer aussi sur la (mauvaise) vulgarisation scientifique via le journalisme grand public. Depuis une dizaine d’années, et avec l’influence d’Internet, la vulgarisation perd en qualité (certains magazines, mais surtout dans le web), ça devient comme la malbouffe… On remplit le cerveau vite, mais mal, et inutilement. Mieux vaut former le cerveau au doute. L’émergence de magazines pseudo-scientifiques aggrave les choses.

J’ai ouvert une porte, d’autres devraient me suivre. Il n’existe pas d’information infaillible, le taux d’erreurs quantitatives dans le mauvais journalisme des sciences est plus grand qu’on ne l’avait pensé. La méthode scientifique et le raisonnement logico-mathématique c’est plus important que le concept de naturalisme, bien que les sciences tendent à montrer que l’univers est naturel et que l’hypothèse d’un Dieu est inutile. La science n’a pas à s’embarrasser de mysticisme. La rigueur dans la méthode scientifique, à travers la réfutabilité des hypothèses et des théories, c’est plus important que la crédibilité des théories elles-mêmes. En gros, peu importe la laideur de la destination, pourvu que le voyage ait été bon, Voila.

Tout doit être autopsié (tout doit-il disparaître ?). De quoi être indécis entre l’autopsie et la boucherie… Toubib or not toubib, that is the question.

iconlol

© 2013 John Philip C. Manson

Quand les délires du New Age contredisent les faits scientifiques

Les délires du New Age font souvent un amalgame entre la spiritualité et la science. J’ai été confronté à ce genre de cas aujourd’hui.

Voici un échantillon de mysticisme pseudo-scientifique fraîchement déféqué (c’est qui hein c’est qui ? c’est pas le Youki ! alors c’est qui ? ) dans un forum consacré à la physique :

  • «Le soleil est une lampe allumée par les énergies de nos esprits».

Quelques uns ont réagi à cette affirmation douteuse. L’un dit qu’il faut être irrationnel pour croire cela. Un autre dit que cela concerne plutôt le paranormal et non la physique.

L’esprit (au singulier ou au pluriel) est un concept (au mieux) ou une croyance (au pire). L’esprit est par définition un principe de vie incorporelle humaine… Dans tous les cas, ce concept ou croyance est dépourvu de la moindre preuve, parce que la vie est matérielle selon des lois naturelles mécaniques (biochimie). Les scientifiques n’ont guère consacré de temps à étudier l’énergie de l’esprit, pas par manque de temps ou de crédits, mais parce que ce concept est invérifiable. Pour réaliser des mesures à travers des expériences, il faut nécessairement des atomes et des molécules, des champs et des forces. Quand les chirurgiens ouvrent un corps humain au scalpel ou au bistouri, on n’y trouve que de la viande (sauf de la viande de cheval , enfin je l’espère)… Aucun principe vital immatériel n’a pu être découvert avec des instruments de mesure, cela reste seulement une croyance et un concept. Si l’immatérialité s’affranchit de la matière, on ne peut rien mesurer, ni rien observer. Peut-être même qu’il n’y a rien, que rien d’immatériel n’existe. La métaphysique hoquette t-elle des mensonges et des illusions ?

En physique, le concept d’énergie est étayé par des preuves : en thermodynamique, l’un des principes est la conservation de l’énergie. La thermochimie montre que la théorie est conforme aux expériences calorimétriques.

  • Avec 7 milliards d’humains sur Terre, et sachant qu’en moyenne chaque humain consomme 2500 kilocalories par jour, l’énergie biochimique totale représente à peu près environ 7,33 × 1013 kilojoules par jour, soient 848 667 mégawatts en puissance thermique au total. Pour l’ensemble des cerveaux humains seuls, c’est environ 10% de cette puissance thermique.
  • En ce qui concerne le soleil, la puissance totale rayonnée est de 3,826×1026 W, soient 3,826×1020 mégawatts, ce qui est une puissance de 451 mille milliards de fois (4,51×1014 fois) la puissance thermique biochimique de tous les humains.

Ainsi, le soleil ne peut pas être allumé par les humains… Par conséquent, l’hypothèse saugrenue est invalidée, donc rejetée. Mais supposons que l’esprit immatériel puisse allumer le soleil ? Il n’y a pourtant aucune hypothèse valable pour justifier que l’esprit immatériel contienne des millions de millions de fois plus d’énergie que la biochimie matérialiste ne le permet… Et il faut obligatoirement expliquer pourquoi, mais seulement si l’hypothèse est vraie.

La biochimie repose sur des preuves depuis presque 2 siècles. Le concept d’esprit, lui, n’a guère évolué depuis Aristote, Platon et Descartes, concept toujours baigné de l’absence de preuves…

J’ai parlé de biochimie thermique humaine car c’est le seul exemple dans lequel l’hypothèse posée ait la possibilité d’être réfutable. Une hypothèse est scientifique seulement si elle a la possibilité d’être réfutable, afin qu’on puisse l’invalider dans le cas où elle est fausse. Je n’ai pas parlé des énergies des esprits, parce que l’existence des esprits est une hypothèse invérifiable, il n’existe pas de données quantitatives connaissables, donc dénué de scientificité. Il n’y a donc aucun raison d’y croire, sinon pour de mauvaises raisons…

bug(arach)

Ci-gît l’ex-fin du monde du 21/12/2012, les Mayas (ou plus certainement les prophètes du New Age) se sont trompés non sans ridicule…

Bibliographie :

© 2013 John Philip C. Manson

Reproduction intégrale interdite – Tous droits réservés (voir les conditions ici : https://jpcmanson.wordpress.com/2013/03/13/a-propos-de-la-duplication-de-mes-articles-dans-vos-blogs/)

À 3 ans, un QI plus élevé qu’Einstein ?

Mon présent article est la suite des articles axés sur le mythe du QI : https://jpcmanson.wordpress.com/?s=QI&submit=Rech.

Nous avons affaire à un fait : une enfant précoce. Ensuite, qu’est-ce qui est incohérent dans le texte journalistique ?

Voici la synthèse de mes remarques :

  • On ne peut pas comparer le QI de la gamine avec celui d’Einstein, puisque Einstein n’a jamais passé de tests de QI de son vivant (les tests de QI n’existaient pas encore à son époque).
  • À l’âge physique de 3 ans, un QI de 162 signifie que la fillette a un âge mental de 4 ans et 10 mois et demi par rapport à la moyenne. Cela fait une avance d’environ 22 mois en âge mental par rapport à la moyenne des enfants de son âge. Il est absurde de comparer le QI d’un enfant avec le QI d’un adulte : si le QI est un indicateur de retard ou d’avance mentale par rapport à une moyenne d’enfants en âge scolaire, le QI devient une imposture lorsqu’il est extrapolé aux adultes. En effet, supposons l’hypothèse selon laquelle Einstein aurait eu un QI de 160 à l’âge de 76 ans, cela aurait voulu dire que le physicien aurait eu un âge mental de 121,6 ans, soit 45,6 années en avance… Cela ne veut plus rien dire…
  • Un QI de 162 ? Mais avec quelle marge d’incertitude ? Et avec combien de tests reproductibles ? Puis a t-on la possibilité a priori de réfuter un test de QI ?
  • Plus intelligente que Freud, Napoléon ou encore Einstein ? Les premiers tests de QI apparurent à la fin des années 1950 aux USA. Einstein mourut en 1955, Freud en 1939, Napoléon en 1821, il est donc évident que deviner post-mortem leur QI est une foutaise. De nos jours sur Internet, le QI est une aubaine marketing : la plupart des portails du web proposent ce genre de service (payant à la fin de votre long test !)
  • Ensuite, le bilinguisme n’a rien à voir avec le QI. Le bilinguisme est possible à cause de la plasticité du cerveau qui s’adapte remarquablement aux stimuli. De même, rien n’empêche physiologiquement un enfant d’apprendre à lire avant l’âge de 6 ans. Lire tout seul c’est comme apprendre le dessin ou le vélo, on apprend de petites règles au départ puis ça vient tout seul par la pratique, pourvu que l’on pratique.
  • Comme certains, je m’interroge toujours sur l’utilité quelconque d’un club comme la Mensa. Il est plus utile d’apprendre à connaître nos propres limites que « s’astiquer la cervelle à la manivelle ». Ce n’est guère réjouissant de vivre dans son propre univers, noyé dans l’égo et celui des autres. La valeur humaine ne se mesure pas au QI qui est un mythe. Un mythe qui fait peu de cas des critères épistémologiques qui définissent la science…
  • D’après l’article ci-contre : https://jpcmanson.wordpress.com/2012/05/24/experience-statistique-sur-9-tests-de-qi/ j’ai établi que la marge d’erreur d’une série de 9 tests de QI est de 9,6%. Si la fillette de 3 ans a un QI de 162, il faut appliquer la marge d’incertitude : 162 plus ou moins 8 points, donc son QI «réel» est compris entre 154 et 170.
  • Le quotient intellectuel ne signifie rien si les gens qui passent ce genre de tests sont dénués d’esprit critique… Intelligent ou pas, peu importe, nous sommes tous moyennement bêtes. Être intelligent (enfin bon, si cela avait un sens) est sans intérêt si ça se limite à la pédanterie. Après tout, c’est comme le sport, on brasse de l’air, on transpire, mais ce n’est guère utile à la société. Toute chose devrait avoir un but, une utilité, des trucs qui se révèlent importants pour progresser dans la médecine, l’ingénierie et les sciences, voire pour sauver un système économique. Hélas, on se limite à lancer quelques fusées sur l’orbite terrestre, à financer les sports, à amuser. Les gaspillages ont pignon sur rue, même en temps de crise, au détriment de l’utilité. Pourquoi ne serions-nous pas pragmatiques et réalistes ? Cela vaudrait mieux que les idéologies, les utopies, les mythes et certains titres racoleurs et sensationnalistes…

Bref, le sujet fait état du cas d’une enfant intellectuellement précoce (c’est la réalité), mais tout ce qui est ajouté par le texte romancé du journalisme est superficiel, inexact et inutile, en contradiction même avec la charte du journalisme de 1971 selon laquelle les infos se doivent d’être exactes sinon rectifiées.

Le progrès personnel ne dépend pas de la génétique ni du QI mais de la seule volonté. Le talent c’est seulement l’envie d’accomplir quelque chose.

Puis en tant que blogueur, j’ai constaté que tout article qui parle d’Einstein fait le buzz. Einstein est un personnage médiatique très apprécié. Mais faut-il raconter des fadaises pour mieux vendre aux gogos, ou aimer inconditionnellement le respect de la réalité de façon désintéressée ? J’opte plutôt pour la seconde attitude, même si bloguer prend du temps, même si je ne suis absolument pas payé pour ça.

© 2013 John Philip C. Manson

Thermodynamique, optique et mouvement perpétuel

Il est en effet impossible de créer ou de détruire de l’énergie, en vertu d’un des principes de la thermodynamique. On peut néanmoins concentrer de l’énergie lumineuse par unité de surface, c’est le cas d’une loupe, ou plus précisément une lentille convergente.

L’intérêt du sujet est augmenté si l’on réalise soi-même une expérience scientifique.

J’ai une lentille convergente d’un diamètre de 5 cm, sa distance focale est de 12 cm. On peut faire de la physique intéressante avec une loupe aussi simple.

Je m’étais déjà amusé à concentrer les rayons de lumière, c’est bien mieux avec les rayons du soleil, afin de recréer les flammes de l’Enfer. 😀

L’image de la source de lumière (soleil) se concentre en un disque de taille minimale exactement à l’emplacement du foyer de la lentille convergente. Ce diamètre minimal est d’environ 3 mm.

Avec ces données, j’essaie de calculer la température des rayons concentrés au foyer : avec ma loupe, en moyenne la température serait de l’ordre de 900 °C, et au mieux elle atteindrait un peu plus de 1200 °C maximum. En effet, d’après le calcul, il n’est guère possible de dépasser une température de 5800 K avec une lentille convergente, surtout d’après ce que montre ma loupe.

Maintenant, il ne reste plus qu’à recommencer l’expérience et à mesurer la température du foyer à l’aide d’un thermomètre électronique à visée laser afin de tenter une comparaison avec le calcul. Mais le temps est nuageux en ce moment où j’écris, il va falloir patienter…

En faisant une expérience de pensée, je me suis demandé ce qui se passerait si on concentrait tout le rayonnement cosmologique fossile (CMBR) en un point de taille minimale. En supposant que ce point de convergence atteigne la température théorique du Big Bang (10^32 K) qui est une limite, mon calcul montre que le diamètre minimal du foyer serait de 4×10⁻³³ mètre, soit à peu près 247 fois la longueur de Planck. Résultat cohérent.

Puis à ce propos, les ondes radio et les micro-ondes ne sont pas concentrés par des lentilles en verre, ces dernières ne concentrent que les rayons du spectre visible. Pour les ondes radio, je pense aux métaux, qui peuvent réfléchir et dévier les ondes radio. A priori, on pourrait réaliser des matériaux métalliques semi-transparents (pour les ondes radio) et formés de couches de différents alliages métalliques afin de dévier les ondes radio de la même façon que dans une lentille qui converge la lumière visible. Je ne sais pas si cette idée a déjà été développée.

Quelques heures après la rédaction de cet article :

Le temps nuageux a laissé place à un temps ensoleillé peu après une chute de neige. J’ai pu réaliser une mesure de température : 145°C lorsque l’image du soleil est projetée selon un diamètre de 1,5 cm sur le capteur infrarouge du thermomètre. Remarque : l’expérience s’est réalisé à travers une vitre située à une distance de quelques mètres. Je présume que la vitre filtre un peu le rayonnement du soleil, parce que la concentration maximale de la lumière avec ma loupe n’a pas pu permettre d’enflammer un morceau de papier. Cependant, le soleil est plus proche de l’horizon que de son altitude maximale lors du midi solaire, et l’expérience fut réalisé environ 90 minutes avant le coucher du soleil.

Les 145°C pour un diamètre concentré de 1,5 cm, cela correspond à une température de 935 K, soit environ 662°C, pour la concentration maximum des rayons solaires avec un diamètre focal de 3 mm. La lumière concentrée était remarquablement blanche et éblouissante.

© 2013 John Philip C. Manson

Téléphonie mobile et ondes électromagnétiques, danger ?

À travers la controverse houleuse des dangers électromagnétiques des téléphones mobiles, je tiens à apporter une base théorique de la physique sur ce sujet.

Principale peur des ondes électromagnétiques des téléphones mobiles : le risque de genèse de cancers.

Avec des ondes électromagnétiques, à partir de quel dose un cancer peut-il survenir d’après les lois scientifiques de la physique ?

Un cancer est provoqué par une altération de l’ADN. Or pour provoquer au moins une cassure de l’ADN au niveau d’au moins un atome, il faut qu’un rayonnement électromagnétique aie une certaine quantité d’énergie, donc une certaine fréquence, et aussi une longueur d’onde précise.

Pour cela, on va évaluer l’énergie minimale à laquelle un rayonnement électromagnétique est ionisant. Donc pour quantifier physiquement le phénomène, on va s’intéresser de près à l’énergie de première ionisation. Voir cet article de Wikipedia : http://fr.wikipedia.org/wiki/%C3%89nergie_d%27ionisation

Ensuite, où explorer ? Les atomes concernés sont ceux de la macromolécule d’ADN : hydrogène, carbone, azote, oxygène et phosphore.

On voit que l’énergie de première ionisation pour les atomes de l’ADN est comprise entre 10,49 eV et 14,53 eV. On va prendre 10,49 eV, la valeur la plus faible, afin de déterminer quel est le type de rayonnement électromagnétique qui soit susceptible de provoquer une radiolyse de l’ADN.

  • 10,49 eV est équivalent à une énergie de 1,6784×10⁻¹⁸ J, cela correspond donc à une onde électromagnétique de 2,54 millions de GHz, et sa longueur d’onde est de 0,118 µm (micromètre), soit 118 nm (nanomètres).
  • L’énergie minimale requise pour provoquer l’altération de l’ADN et induire un risque de cancer correspond à un rayonnement ultraviolet dur, de type V-UV ou X-UV. Voir ici : http://fr.wikipedia.org/wiki/Spectre_%C3%A9lectromagn%C3%A9tique

En effet, les UV peuvent provoquer des cancers cutanés, c’est même prouvé.

Cependant, et soyons bien clair là-dessus : comme les rayons électromagnétiques dont la longueur d’onde est inférieure ou égale à 118 nm sont cancérigènes (c’est le cas des UV durs, des rayons X et des rayons gamma, qui sont des rayonnements ionisants), les autres rayonnements de plus grande longueur d’onde (donc de plus faible énergie) ne peuvent pas être cancérigènes ; c’est le cas du spectre visible (les couleurs), des infrarouges, des micro-ondes (celles des téléphones mobiles) et des ondes radio.

Néanmoins, les ondes infrarouges et les micro-ondes peuvent provoquer une élévation de température. Un échauffement léger des tissus vivants peut éventuellement survenir si on téléphone sans discontinuer pendant de longues heures, mais en regard de la puissance d’émission des téléphones mobiles il est formellement exclu de pouvoir cuire des oeufs avec des téléphones mobiles (les vidéos sur Youtube à ce sujet sont des canulars).

D’après le site suivant : http://www.radiofrequences.gouv.fr/spip.php?article39  , la fréquence électromagnétique des téléphones mobiles est comprise entre 900 Mhz (soit 0,9 GHz) et 2100 MHz (soit 2,1 GHz). Ce qui est beaucoup plus faible énergétiquement que les 2,54 millions de GHz des UV durs ionisants. De plus, la puissance de rayonnement des téléphones mobiles est comprise entre 0,25 W et 2 W, ce qui est faible. Chaque onde d’un téléphone mobile actuel est environ un million de fois moins énergétique qu’une onde initiatrice de cancer.

La ministre de l’économie numérique, Mme Fleur Pellerin, évoque des peurs irrationnelles autour de la téléphonie mobile : http://www.atlantico.fr/pepites/ondes-electromagnetiques-fleur-pellerin-evoque-peurs-irrationnelles-623392.html   Elle a raison et je la soutiens.

Cependant, le camp des anti-téléphones est réactionnaire :  http://www.atlantico.fr/pepites/vent-critiques-ecologistes-contre-gouvernement-ondes-625975.html L’écologisme sans arguments scientifiques va droit au mur… Entre science et fanatisme, les décisions politiques oscillent dangereusement entre les faits et la pure subjectivité.

À voir aussi :

Dans mes remarques dans mon article, je me suis basé uniquement sur la physique. Mais les peurs irrationnelles et les «théories du complot» enveniment les débats, c’est malsain et non constructif alors que le sujet doit rester sérieux c’est-à-dire objectif.

Certains affirment que les téléphones portables émettent des ondes électromagnétiques nocives. Mais la preuve formelle de la nocivité de la téléphonie mobile n’a toujours pas été apportée. Donc plusieurs attitudes possibles : le sectarisme de la diabolisation punitive et culpabilisatrice de la technologie, ou bien le doute et la nécessité de recherches scientifiques plus approfondies.

Ce n’est pas cancérigène de s’informer en étudiant la physique et la chimie… Les peurs, elles, n’enseignent qu’une chose : l’ignorance et l’obéissance.

Les ondes radio et les micro-ondes ne sont pas équivalentes au phénomène de radioactivité, il ne s’agit pas de la même chose. À part le fait que les rayons gamma et les micro-ondes et les ondes radio sont toutes des ondes électromagnétiques, mais c’est leur fréquence (et leur longueur d’onde) qui les distinguent. Les ondes radios et les micro-ondes ne sont pas des rayonnements ionisants.

Si un danger existe, alors il faut fournir des preuves quantitatives obtenues par des expériences en double aveugle par la participation de plusieurs laboratoires indépendants. Ce n’est pas parce qu’il n’y a pas encore de preuve de dangerosité que cela signifie qu’une chose est dangereuse. Le principe de précaution peut déraper rapidement. L’eau c’est dangereux, la preuve c’est que des gens s’y noient, il faut donc l’interdire. La paranoïa peut s’appliquer subjectivement à l’eau, au téléphone (fixe ou mobile), aux voitures qui provoquent la violence routière, à internet (psychose du terrorisme, du piratage et des pervers sexuels), voire aux humains eux-mêmes (ils respirent et émettent du CO2 qui est un gaz à effet de serre)… Il faut se méfier du principe de précaution, des dérives sont possibles.

  • « Si nous avions un vrai système d’éducation, on y donnerait des cours d’autodéfense intellectuelle. » (Noam Chomsky)
  • « La culture de la peur a toujours constitué l’instrument favori des dictatures : les démocraties ne peuvent qu’en faire un usage limité sous peine de se détruire. » (Pascal Bruckner, in « Le fanatisme de l’Apocalypse », p. 47) 

Au fait, des rayonnements beaucoup plus puissants que les micro-ondes des téléphones mobiles nous traversent quotidiennement : ce sont les sursauts gamma et les rayons cosmiques. Il y a aussi le fond diffus cosmologique (le fameux rayonnement fossile) dans lequel tout l’univers baigne : fréquence de 84,426 GHz (plus de 42 fois plus énergétique qu’une onde de téléphone mobile !). et longueur d’onde de 3,55 mm. Sans non plus oublier la radioactivité naturelle : (0,11 µSv/h, équivalent à peu près à 1,8 milliardième de watt par kilogramme). Pourtant, les écolos n’ont pas l’air de s’en plaindre… Faut-il interdire les rayonnements naturels ? Faut-il interdire à l’univers d’exister ? À moins de créer une taxe juteuse (comme la taxe carbone), non ? 😀

© 2013 John Philip C. Manson

Lecture d’un article de monsieur météo (Laurent Cabrol) via NouvelObs

  • Publié autrefois le 21 juillet 2011 dans mon premier blog désormais disparu, cet article est restauré ici le 30 janvier 2013.

Monsieur Cabrol affirme :

  • Depuis 30 ans, la température a augmenté de 0,6% et on se porte toujours bien.

Considérant que la température relative moyenne globale terrestre est de +15°C, alors la variation de 0,6% équivaut à +0,09°C en 30 ans, soit +0,3°C par siècle en moyenne. Sachant que sur les 100 dernières années la variation est de +0,74°C, et si monsieur météo dit vrai, il faut donc conclure à un ralentissement du réchauffement sur les 30 dernières années par rapport aux 100 dernières années.

Mais si l’on considère en terme de température absolue (en thermodynamique), alors 0,6% de 288,15 K (+15°C) équivaut à 1,73°C d’augmentation sur 30 ans, soit 5,76°C sur un siècle (ce qui n’est pas le cas, donc monsieur météo parlait en degrés Celsius et pas en kelvins).

Monsieur météo a dit aussi :

  • Grâce à l’énergie nucléaire, on peut se targuer d’être le pays le plus propre.

C’est exact, la France est à un haut niveau technologique dans le nucléaire,la France est un pays de spécialistes dans ce domaine. De plus, l’uranium ne produit aucune molécule de CO2 ni de méthane. Cependant, le refroidissement contrôlé des réacteurs nucléaires nécessite de l’eau, laquelle est libérée sous forme de vapeur (la chaleur du réacteur étant retransmise dans l’eau froide qui change d’état physique). La vapeur d’eau est un gaz à effet de serre, mais la Terre s’autorégule : l’eau peut condenser en nuages et pleuvoir, et le CO2 est heureusement biodégradable bien qu’il s’accumule peu à peu dans l’air plus vite qui ne soit absorbé. En outre, si le nucléaire est relativement «propre», il produit cependant des déchets nucléaires et leur stockage présente un gros problème… En matière d’économie, le nucléaire est une nécessité pour la survie économique, il est irréaliste de vouloir sortir du nucléaire. (voir ici : https://jpcmanson.wordpress.com/2012/04/24/lenergie-en-allemagne-dont-le-nucleaire/)

Monsieur météo a dit aussi :

  • L’écologie est une science.

Oui, l’écologie est une science et elle devrait se présenter comme telle. À ne pas confondre avec l’écologisme politique qui, lui, est une idéologie dont le but n’est pas la connaissance ni le recul critique mais le pouvoir et l’embrumage des esprits.

Monsieur météo a dit :

  • On nous parle régulièrement  de la disparition des îles Maldives censées être englouties sous les eaux à cause du réchauffement climatique en 1999.

Oui, les Maldives sont victimes d’inondations mais pas forcément à cause de la dilatation thermique de l’eau océanique ou à cause de la fonte des glaciers. Les Maldives sont inondées depuis toujours par les cyclones, c’est naturel et normal, c’est leur climat qui est ainsi (depuis même bien avant l’apparition de l’Homme).

Monsieur météo a dit aussi :

  • En l’an 1000 il y a eu un réchauffement climatique.

Oui, c’est l’optimum médiéval. Il y a eu aussi un réchauffement brutal de 10°C en moins de 10 ans il y a 14700 ans, lors de la période dite du Dryas récent. (lire plutôt ici : https://jpcmanson.wordpress.com/2013/01/30/remarques-sur-le-rechauffement-climatique-et-la-problematique-de-la-scientificite/)

Après la fin de l’article, le commentaire de monsieur Jean-Pierre Bardinet est tout-à-fait pertinent.

Les données à propos des propriétés des gaz à effet de serre sont contradictoires (https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/) et cela a pour conséquence une grande incertitude d’une part sur ces données quantitatives et d’autre part sur les prédictions climatiques faites sur la base de ces données incertaines. J’ai constaté que les sites du web recopient entre eux les grandeurs quantitatives physiques sur les gaz à effet de serre sans vérifier leur authenticité empirique.

Texte intéressant ici dont voici ci-dessous des caractéristiques à évoquer :

  1. il n’existe pas de lois physiques communes au phénomène de réchauffement dans des maisons de verre et aux effets de serre atmosphériques fictifs;
  2. il n’existe pas de calcul qui détermine une température moyenne de la surface d’une planète;
  3. la différence de 33 °C souvent mentionnée est un nombre sans signification calculé de manière erronée;

1). En effet, le lien entre une maison en verre et le réchauffement de certains gaz est une analogie, ce n’est pas exactement le même phénomène.

2). La notion de température moyenne n’a pas de sens : une simulation informatique montre que la moyenne globale de températures locales n’a pas de sens en thermodynamique, et compte tenu de l’amplitude thermique propre à chaque région du globe, la moyenne doit comporter aussi une marge d’erreur due à un « bruit de fond ». La prédiction climatologique a un comportement chaotique à moyen terme, à cause duquel les prédictions sont impossibles, l’incertitude devenant supérieure à la grandeur à évaluer. Il n’existe pas de prédictibilité globale de la température moyenne s’il n’existe pas de prédictibilité régionale. Une autre incertitude vient renforcer l’incertitude chaotique : il s’agit des données contradictoires concernant le méthane, dont plusieurs sources affirment qu’il est 20, 23, 25 ou 56, jusqu’à 75 fois plus puissant que le CO2 comme gaz à effet de serre (https://jpcmanson.wordpress.com/2011/12/05/de-combien-de-fois-le-methane-est-un-gaz-a-effet-de-serre-plus-puissant-que-le-co2/). Cette incertitude rend les phénomènes imprédictibles.

3). Affirmer que la température moyenne globale serait de -18°C au lieu de 15°C s’il n’y avait pas de CO2 est seulement une hypothèse : aucune expérience n’a été faite à ce sujet, et ces -18°C sont issus d’un calcul discutable. Selon la loi d’Arrhenius, une température globale de -18°C correspond à une concentration en CO2 d’environ 0,23 milliardième de ppm. Mais avec une concentration en CO2 nulle, la température globale tend vers le zéro absolu ce qui n’est pas crédible. Pour les très faibles concentrations en gaz à effet de serre, la loi d’Arrhenius est invalide. Ainsi, d’où provient cette valeur de -18°C ?

Le rôle des océans, celui des nuages et celui des aérosols dans le climat global sont suffisamment méconnus pour entraîner des incertitudes qui font que les prédictions ne peuvent pas être fiables. Peut-on modéliser vraiment le climat ?
© 2011-2012-2013 John Philip C. Manson

Les icebergs flottants ne font pas varier le niveau des mers en fondant

Vu dans le magazine SVJ de juin 2008 (encore !), page 98 :

iceberg-SVJ

Cliquer pour agrandir

Quand un iceberg se fissure et se disloque, il ne fond pas, il ne fait que s’effondrer sous son propre poids. La fonte, elle, est un changement de phase, de l’état solide à l’état liquide, par une diminution de volume du solide sans fracturation de la glace. En effet, ne pas confondre la glace pilée et la glace fondue.

Ensuite, il faut rappeler que la glace déjà flottante (comme la banquise arctique) qui fond ne fait absolument pas varier le niveau des mers. Seules les glaces des terres continentales qui dérivent vers les océans peuvent faire augmenter le niveau océanique, avant même de fondre, simplement parce que la partie immergée de glace réalise une poussée d’Archimède. Quand de la glace pénètre un océan, le niveau des mers augmentent parce que cette glace n’y était préalablement pas présente. Une fois ce niveau ayant augmenté après l’immersion de cette glace dans l’océan, la fonte de cette glace ne fait plus varier le niveau des mers. Voir l’explication ci-dessous.

Dans 1 m³ de glace, il y a 917 kg d’eau à l’état solide. Pour un iceberg régulier, la partie de glace émergée représente environ 9,05% de la hauteur totale de la glace. En fondant, la partie glacée émergée disparaît, et les 917 kg d’eau (masse constante) passe de l’état solide à l’état liquide, et donc le volume d’eau liquide (0,917 m³, soit 917 L, inférieur au volume de glace de 1 m³) est rigoureusement identique au volume de la partie immergée de la glace avant sa fonte. Bilan : il y a équilibre, il n’y a ni excès ni défaut d’eau liquide par rapport au niveau initial des mers, le niveau ne varie pas malgré la fonte de la glace flottante.

Si le grand iceberg concerné ici avait une hauteur de 10 mètres, alors son immersion en mer en provenance du glacier continental provoquerait une élévation des mers de 0,01 mm seulement… Très négligeable. Avec un iceberg d’une hauteur de 1 km (hypothèse vraiment extrême), le niveau marin aurait augmenté de 10 mm, ce qui reste toujours très négligeable par rapport au cycle des marées. Des scientifiques s’inquiètent de ça ? Ah bon, qui ça ?

Le problème deviendrait beaucoup plus préoccupant si c’était toutes les glaces continentales mondiales qui glissaient vers les océans, mais ce n’est pas dans l’immédiat.

Si vous croyez que je raconte des balivernes, demandez à vos professeurs de physique ou relisez vos cours sur la poussée d’Archimède… Mieux encore : je vous encourage fortement de réaliser des expériences avec des glaçons qui flottent dans un verre !

Ce site confirme mes propos : http://tatoufaux.com/?La-fonte-des-icebergs-aurait-une

Vous me direz : mais la mer est salée et la glace est de l’eau douce ! Même avec ce paramètre, la différence reste négligeable.

  • Puis, décidément, depuis hier, j’ai trouvé des incohérences dans un seul et même n° de magazine daté de 2008 (dont j’ai fait 3 articles) et un autre pareil daté de 2007 (dont j’ai fait un article). En effet, la période 2007/2009 était propice à l’émergence active d’une propagande écolo qui n’est en fait qu’une forme de publicité d’un programme industriel de développement durable. Des analyses quantitatives ont montré quelques incohérences derrière ce décor dont le ton me semble orienté plus vers l’utopie politiquée que vers la rationalité scientifique… Il faut du développement durable afin de remplacer l’ère du pétrole, voire celle du nucléaire, mais il faut investir avec des moyens réalistes et rationnels. Il faut néanmoins dénoncer les utopies car elles ne reflètent qu’une forme d’idéologie qui dessert la science… 

Chronologie :

Preuve quantitative que la fonte de glace flottante entraîne le fait que l’eau liquide ayant fondu occupe un volume égal au volume de la glace immergée dans l’eau :

  • Vé = volume de glace émergée au-dessus du niveau de l’eau
  • Vg = volume total de glace avant la fonte
  • VL = volume total d’eau obtenu après la fonte complète de la glace
  • µL = masse volumique de l’eau liquide (eau douce !) = 1000 kg/m³
  • µG = masse volumique de la glace (avant sa fusion) = 917 kg/m³
  • Vi = volume de glace immergée au-dessous du niveau de l’eau
  • m = µL×VL = µG×Vg = constante
  • Remarque :    Vg = Vé + Vi  et  µL×VL = µG×Vg
  • (µL – µG) / µG = (Vg – Vi) / Vi = Vé / Vi = (Vg/Vi) – 1 = 0,0905
  • Poussée d’Archimède : le poids de toute la glace s’oppose à la poussée d’Archimède (poids d’eau immergée déplacée)
  • Poids de glace : P = m×g ; Poussée :  A = Vi×µL×g
  • Conséquence : Vi.µL = µL×VL  donc  VL = Vi   donc la partie de glace émergée disparaît après la fonte, et l’eau liquide occupe exactement le même volume que le volume de glace immergée. Preuve de l’invariation du niveau de l’eau lors du changement de phase quand la glace flottante fond dans de l’eau douce !!!  😉
  • Néanmoins, comme la mer est salée et que la glace est de l’eau douce solide, le résultat est différent : soit µS la masse volumique de l’eau de mer (comme paramètre additionnel), alors la différence de volume général entre l’état solide et l’état liquide (une glace d’eau douce fondant dans de l’eau salée) est telle que ΔV = VL(1 — µL/µS). Avec µS = 1025 kg/m³ pour l’eau de mer (en moyenne), alors la variation de volume (gain d’eau supplémentaire dans la masse océanique) est de 24,39 litres d’eau douce par tonne de glace flottante ayant fondue. Rapport ΔV/VL = 0,0244. On avait vu que si l’iceberg cité en image en début d’article provoquait une montée du niveau de la mer, l’élévation serait de l’ordre du centième de millimètre jusqu’à 10 mm maxi, seulement du fait de l’immersion d’un bloc de glacier vers l’océan (et non directement de la fonte de la glace) alors ça provoquait cette variation de volume (+1000 m³ d’eau douce liquide par tonne de glace), mais d’après la poussée d’Archimède la variation volumique due à la fonte de glace d’eau douce dans la mer salée n’est que de 0,0244 m³ pour une tonne de glace. Donc un iceberg de 41 km × 2,4 km et haut de 10 mètres (par exemple) qui flotte et puis fond complètement dans l’eau salée, ça crée une élévation du niveau de la mer de seulement 0,2 micromètre, c’est extrêmement négligeable…

© 2013 John Philip C. Manson