Expansion terrestre

  • L’expansion terrestre est une ancienne théorie géologique, désormais obsolète, selon laquelle les déplacements des continents et l’évolution de la lithosphère sont la conséquence d’une augmentation importante et accélérée de la surface et donc du volume de la Terre. La plus récente estimation de l’augmentation de surface (fondée sur la quantification et la datation des lithosphères océaniques et continentales et certaines suppositions) est un quadruplement depuis 250 millions d’années, soit un doublement du rayon terrestre durant cette période, pour une croissance actuelle d’environ 20 mm/an.

Oui cette théorie est tombée en  désuétude, heureusement. La dérive des continents avec les mouvements de convexion du manteau supérieur correspond sensiblement mieux à la réalité.

La théorie de l »expansion terrestre, si on l’évalue par les maths, ne peut pas être cohérente, son abandon est une évidence.

 

Si la Terre se dilate mais conserve une masse constante, la densité terrestre décroît exponentiellement et rapidement :

  • Masse volumique : rho(t) = 3 m e^(-3t)/ (4 pi R0^3)
  • Densité par rapport à l’eau :    d(t) = 5,52 * e^(-3t)

L’accélération de la pesanteur aussi :

  • g = 9,81 * e^(-2t)

Arguments contre ce modèle :

  • Rien ne peut expliquer une dilatation sans augmentation de masse, car cela implique que la Terre se remplirait de vide.
  • Le modèle implique une densité élevée inexpliquée dans le passé, et une densité faible dans le futur, inexpliquée non plus.
  • L’accélération de la pesanteur aurait été élevée dans le passé, impliquant des animaux préhistoriques de petite taille pour résister à leur propre poids. Alors qu’en réalité, les dinosaures avaient une tendance au gigantisme.
  • La diminution de l’accélération de la pesanteur dans le futur implique que les objets à la surface de la Terre soit un jour projetés dans l’espace du fait de la force centrifuge due à la rotation terrestre.
  • La vitesse de libération terrestre décroît exponentiellement :  v = v0 * e^(-t) = 11200 * e^(-t). Ce qui implique une vitesse de libération élevée dans le passé, impliquant une atmosphère dense.

Lorsque les arguments contre un modèle sont en quantité supérieure par rapport aux arguments favorables, il est évident que le modèle doit être invalidé.

 

Si la Terre se dilate mais conserve une densité constante :

  • Masse terrestre :  m(t) = m0 * e^(3t)
  • Densité :    d(t) = constante
  • g(t) = 9,81 * e^t

Arguments contre ce modèle :

  • La masse terrestre croît exponentiellement de plus en plus rapidement. Ce qui est contredit par la chute de moins en moins fréquente de poussières et météorites sur Terre en fonction du temps. L’apport de masse extra-atmosphérique vers la Terre diminue avec le temps.
  • L’accélération de la pesanteur croît exponentiellement avec le temps. Si cela rend a priori possible le gigantisme animal dans le passé, l’accélération de la pesanteur deviendrait très élevée dans le futur.
  • La vitesse de libération terrestre augmente exponentiellement :   v = v0 * e^(t/2). Ce qui implique une vitesse de libération faible dans le passé, ce qui implique une atmosphère terrestre primitive qui était ténue ou absente, ce qui est contradictoire avec la réalité.
  • Si la masse augmente, les corps célestes s’attirent mutuellement plus fort, et donc la lune finit par entrer en collision avec la Terre, et les planètes (dont la Terre) finiront par spiraler vers le soleil. Dans le modèle à masse constante, les orbites restent stables, mais comment expliquer une dilatation sans augmentation de masse donc avec du vide ?

 

Les deux modèles ci-dessus se base sur un doublement du rayon terrestre lors des derniers 250 millions d’années, sachant que ce rayon tendait vers zéro il y a plus de 4,6 milliards d’années. Le temps t est exprimé en années via les équations ci-dessus, avec t = 0 qui désigne l’instant présent, et t< 0 désignant le passé, et t > 0 désignant le futur.

Si le rayon terrestre croît de 20 millimètres par an à un instant donné, alors environ 13 années plus tard, cet accroissement atteind environ 10 fois plus l’augmentation précédente (20 cm environ par an au lieu de 20 millimètres par an).

Si la constante de gravitation (notée G) variait dans le temps, afin de sauver la théorie de l’expansion terrestre, cela entrerait en contradiction avec la théorie de la relativité et les équations de Friedmann, de quoi entrer en contradiction avec les théories de la cosmologie (dont le modèle du Big Bang). Si dans la théorie de l’expansion terrestre l’on veut que l’accélération de la pesanteur soit constante, alors dans le modèle d’expansion terrestre à masse terrestre constante, on a G = 6,67*10^-11 * e^(2t) ; et dans le modèle à masse variable, on a G = G0 * e^(-t). Ce qui contredit les mesures de G effectuées en 1994 et 2010 : https://fr.wikipedia.org/wiki/Constante_gravitationnelle#Nouvelles_valeurs_obtenues

 

C’est une évidence que la théorie de l’expansion terrestre n’est pas du tout crédible et devait être définitivement abandonnée.

John Philip C. Manson

 

 

 

Publicités

L’expérimentation scientifique, un échec

Je découvre quelque chose sur Yahoo qui confirme ce que je pensais au sujet de l’enseignement des sciences.

Voici une copie d’écran :

questionYQR

 

Autre copie d’écran :

yqr2

Les lycéens savent résoudre des exercices vus dans des livres, après avoir suivi un cours sur des connaissances de base. Les livres scolaires sont alors assimilables à des vérités immuables prédigérées. Mais les livres ne sont qu’un moyen indirect d’accès aux connaissances scientifiques. On ne devrait connaître que ce que on a expérimenté soi-même. La démarche scientifique est l’expérimentation : on observe des phénomènes et on réalise des mesures quantitatives, on teste des hypothèses. La science c’est cela. Mais réduire la science à des cours dirigés par des livres, c’est dénaturer ce qu’est vraiment la science. On ôte aux lycéens l’accès aux définitions de base de ce qu’est la science. Ainsi je ne suis pas étonné dans un pareil contexte que les lycéens soient si démunis quand leur professeur leur demande de réaliser un devoir basé sur des exemples de démarche scientifique. Parce que les élèves, bien qu’ils sachent faire des exercices classiques, ne savent pas ce qu’est la science par définition, à travers les critères épistémologiques. C’est une lacune que l’Éducation Nationale devrait s’efforcer de combler… Avant même d’enseigner certaines théories scientifiques, l’école devrait d’abord décrire en quoi consiste la méthode scientifique et inciter les élèves à expérimenter eux-mêmes !

© 2013 John Philip C. Manson

Une nouvelle exoplanète découverte grâce à la théorie d’Einstein

L’article des deux liens ci-dessus semble décrire une méthode souvent utilisée pour la détection des exoplanètes : l’interférométrie, et cela concerne la physique quantique plutôt que la théorie de la relativité. Mais en fait, ce n’est pas l’interférométrie comme l’article de Yahoo le laisse croire. Je confirme finalement l’info de l’article par une source plus précise, je vais dire pourquoi ci-dessous.
Sur le site allemand « Welt der Physik » dans les news de l’astrophysique (http://www.weltderphysik.de/gebiet/astro/news/2013/einsteins-planet/), et désolé c’est écrit en allemand, on en apprend plus : on a mesuré la déformation de la luminosité stellaire par l’attraction gravitationnelle de l’exoplanète proche, et des variations supplémentaires dues au déformations du reflet de la planète. Il s’agit bien d’une méthode authentique basée sur la théorie d’Einstein, mais l’article de Yahoo et de 20minutes.fr n’en donne pas les détails essentiels. Il ne s’agit pas seulement de détecter des luminosités, mais surtout d’en analyser les variations dans un contexte de déformations de l’espace-temps. Et en effet, c’est une méthode très intéressante.

L’article de Yahoo et de 20minutes.fr manquait de précision. Il faut toujours faire l’effort de rechercher d’autres sources pour essayer de mieux comprendre et de vérifier l’authenticité.

Un internaute s’est écrié en ces termes : «Un grand BRAVO à vous, les astrophysiciens et un grand MERCI à notre Cerveau du Siècle, Mr Einstein !!! C’est encore, (jusqu’à preuve du contraire de certains démolisseurs de théories) grâce à vous que nous avançons !!!…»

J’y ai répondu en donnant un rappel essentiel de la scientificité :

L’information sur la théorie d’Einstein à propos de l’exoplanète est authentique, j’ai pu vérifier cela dans le site allemand « Welt der Physik » (« Le monde de la physique ») dans la rubrique des news sur l’astrophysique. Cependant un rappel d’épistémologie est nécessaire. Le critère principal de la méthode scientifique, c’est la réfutabilité des théories. La science ne consiste pas à accumuler des « vérités », mais à invalider des hypothèses quand elles sont fausses. C’est là toute la nuance, et nombreux ceux qui ne connaissent pas ce qui définit la science. On reconnaît une bonne expérience au nombre de théories qu’elle fait tomber. Une théorie peut être très crédible, mais cela ne signifie pas qu’elle est absolument la vérité. Au mieux, on peut invalider des hypothèses en prouvant leur fausseté (à travers la mise en évidence d’une contradiction entre l’hypothèse et les observations), mais on ne peut pas prouver que des hypothèses sont absolument et définitivement vraies, au mieux on dit qu’elles sont crédibles. Corrélation ne signifie pas systématiquement causalité. Les théories sont des représentations faillibles de la nature. La faillibilité implique la prudence, en vérifiant par des expériences quantitatives reproductibles. C’est par le doute que la science avance, en remettant les choses en question, mais pas en instituant des dogmes immuables et irréfutables. Depuis 4 siècles environ, la science évolue, pas les religions. Le but même de toute théorie scientifique est d’essayer d’être démolie afin d’en évaluer sa solidité.

Mais toutefois, je ne donne pas de conclusion définitive à propos de l’exoplanète découverte au moyen de la théorie d’Einstein, mieux vaut rester prudent, je vais rechercher d’autres sources complémentaires à ce sujet afin que l’authenticité de la découverte ne laisse plus de doute.

Entre-temps, un internaute prénommé Éric a affirmé mot pour mot que «La gravité n’a aucune influence sur la luminosité (c’est une onde électromagnétique) et ne peut pas la déformer. La déformation qu’on observe est un effet optique très connu, qui a été rendu célèbre par les « trous de Young ».»

Je lui ai répondu ainsi :

La gravitation dévie la lumière, comme la célèbre expérience réalisée lors d’une éclipse de soleil en 1919 avec l’observation de la déviation de la lumière d’étoiles en arrière plan, leur lumière étant presque tangente à la surface du soleil. (Lire la page Wikipedia sur les tests expérimentaux de la relativité générale : http://fr.wikipedia.org/wiki/Tests_exp%C3%A9rimentaux_de_la_relativit%C3%A9_g%C3%A9n%C3%A9rale#Courbure_des_rayons_lumineux). La gravitation peut même diminuer la fréquence des ondes électromagnétiques (cas d’un faisceau laser émis depuis un champ gravitationnel).

J’ai même vu une simulation de la proximité de l’horizon des événements d’un trou noir, avec des explications données par le docteur Alain Riazuelo, astrophysicien : la simulation montrait que la lumière des étoiles était tellement déviée pour se concentrer en un point. Voir la vidéo ayant pour titre «Reportage complet Voyage Au Coeur D Un Trou Noir» sur Youtube.

Bref, la gravitation a des effets sur la lumière.

Tandis que les changements observés dans les franges d’interférences via les fentes de Young est un phénomène quantique qui montre l’existence du mouvement de la source lumineuse par rapport au montage expérimental. Les trous de Young relèvent de la physique quantique, pas de la théorie de la relativité. Non ?

Éric a donné une nouvelle réponse, je la cite mot pour mot : «Désolé John, c’est faux… La gravité n’a AUCUNE influence sur la luminosité ! La déformation qu’on observe dans ces cas est un effet optique très connu, qui s’appelle la DIFFACTION…  Les « trous de Young », eux, mettent en évidence la nature « ondulatoire » de la lumière (c’est bien une « onde » électromagnétique). La théorie quantique de la lumière, quant à elle, est un concept mathématique très pratique pour quantifier l’énergie véhiculée par la lumière, mais elle n’est pas pertinente du point de vue de la physique. La théorie de la relativité, est justement une « théorie » qui cherche à « globaliser » les différentes interactions (éléctrostatique, magnétique, gravitationnelle) qui n’ont forcément pas d’effet l’une sur l’autre. Elle est (donc) très facile à utiliser, mais totalement aberrante pour de nombreux scientifiques. (désolé pour le premier message que j’ai supprimé)»

J’ai donné ma réponse :

La diffraction, tu veux dire, pas la « diffaction »… Avant de dire que j’ai faux, relis toi. Et quel rapport avec la théorie de la relativité ?

Ce que j’ai dit sur la luminosité provient de la traduction du site allemand « Welt der Physik » dans la rubrique astrophysique. Il y est question de variation de luminosité dans le cadre de la théorie de la relativité générale. Ce n’est pas moi qui le dit, mais le CFA par la médiation de « Welt der Physik ». Ce site allemand dit que la méthode habituelle consiste à l’effet Doppler dans le spectre électromagnétique mais cette méthode est coûteuse et ne permet pas d’analyser simultanément un grand nombre d’étoiles. La nouvelle méthode basée sur la théorie d’Einstein dit que la théorie de la relativité prédit que le mouvement de l’étoile conduit également à des changements de luminosité (je note : rien n’empêche d’observer des phénomènes de la relativité générale au moyen de l’interférométrie). Les étoiles se déplacent vers nous, de sorte que leur rayonnement est concentré, et qu’il sera affaibli si les étoiles s’éloignent de nous. Les chercheurs ont pu montrer que ces fluctuations sont de l’ordre du dix-millième de pourcent de la luminosité pour l’étoile Kepler-76 (similaire au soleil) située à 2000 années-lumière de nous. Pour s’assurer que la planète est à l’origine du phénomène, l’équipe a démontré deux effets : la déformation de l’étoile par l’attraction gravitationnelle d’une planète proche et des variations supplémentaires de la planète par le reflet de la lumière reçue de l’étoile.
Je note que c’est cela, l’effet relativiste. Déformation spatio-temporelle très faible mais mesurable de corps matériels, ce qui a une incidence sur la luminosité. La déformation affecte les distances, pas directement la lumière elle-même (mais cela a néanmoins des conséquences quantitatives comme les variations de la longueur d’onde et d’autres paramètres physiques liés à l’espace et le temps ; seule la vitesse de la lumière dans le vide est constante). Voila ce qui était à préciser.
C’est la gravitation exercée entre la planète et son étoile qui provoque une déformation des surfaces, ce qui fait varier la luminosité. Il s’agit donc bien d’un phénomène de la théorie de la relativité.

Ce texte est traduit de l’allemand, ce qui m’est difficile car je ne connais pas cette langue. De plus, impossible de citer un lien hypertexte ici (sur Yahoo) parce que c’est un motif de suppression du commentaire, ça ne facilite rien.

Puis sur un autre sujet, la théorie quantique n’est pas qu’un concept, elle se base sur des phénomènes observés. C’est bizarre que tu dises qu’elle n’est pas pertinente… Pourtant une théorie scientifique se base sur des faits. Non ?

Puis quand tu dis que la relativité englobe l’électrostatique, magnétique, gravitationnelle, c’est faux. Tu confonds avec la «théorie du Tout» (theory of everything) qui essaie de concilier la relativité et la théorie quantique…

Dans un tout autre contexte, je m’inquiète des dérives antisémites dans les commentaires d’article à chaque fois que le sujet fait référence à Albert Einstein… Voir ci-dessous, j’ai exprimé un avis méprisant sur les haineux, et un imbécile est venu s’éprendre avec une voix un peu nazillarde :

rac

Les racistes, les sectes et les homophobes, ils viennent m’emmerder parce que ce que je dis ne leur plaît pas, tout cela commence sérieusement à me casser les couilles, ces crétins n’ont vraiment rien dans la cervelle, à part une moelle épinière pour marcher en rythme comme des moutons avec la mentalité de loups prêts à tout… Ce ne sont pas ces individus-là qui font avancer la science ni la société… Quelle misère !

Info complémentaire du 22 mai 2013 :

L’article de Futura parle bien de déformation de la surface des astres par effet de marée due à la gravitation, mais nulle part on ne trouve de référence à Einstein ni la théorie de la relativité. Soit Futura n’a pas d’info plus précise, soit les sources qui parlent de la relativité exagèrent un peu en faisant un scoop sur Einstein. Comme je l’avais dit plus haut, il faut des infos complémentaires pour connaître le contexte exact de la découverte. Effet classique de marée ou distorsion de l’espace-temps dans un contexte de la théorie de la relativité ?

© 2013 John Philip C. Manson

Un paradoxe empirique à propos des neutrinos

briangreene

J’ai lu Greene sur Twitter récemment. Il arguait qu’en quelques secondes il y avait un million de milliards de neutrinos qui nous traversaient le corps.

Traduction littérale : «Pendant qu’on lit ça, environ un million de milliards de neutrinos traverseront votre corps. (Minimisez en ajustant votre angle au soleil).»

Je voudrais bien le croire, mais il y a un problème empirique. En effet, on sait que les neutrinos interagissent très peu avec la matière. Il y a plusieurs types de détecteurs de neutrinos. Leur principal point commun est d’être composé d’une grande quantité de matériel, étant donnée la faible section efficace d’interaction des neutrinos. De plus, les antineutrinos, comme les neutrinos, n’interagissent avec leur environnement matériel que via la gravitation et des forces faibles, ce qui rend leur détection expérimentale très difficile. Source : https://fr.wikipedia.org/wiki/Neutrino#Types_de_d.C3.A9tecteurs_de_neutrinos

Donc quand les neutrinos nous traversent sans interagir avec nos atomes, on ne peut donc pas les détecter ni observer la moindre interaction. Au mieux, nous observerons quelques traces de collisions quand il y aura interaction, mais on ne saura jamais empiriquement combien il y a réellement de neutrinos qui nous traversent sans interagir, puisque sans interaction on n’observe rien, et que par conséquent on ne peut pas compter ces neutrinos invisibles.

Donc d’où provient le nombre avancé par Brian Greene ?

Cela m’intrigue… Je présume que c’est un calcul non étayé par des observations, parce que la majorité des neutrinos traverse la matière presque sans interaction, et qu’il n’y a pas d’observations sans phénomènes d’interactions. Le calcul aura été peut-être inspiré par les réactions thermonucléaires du soleil : on connaît la puissance lumineuse rayonnée par le soleil, et par conséquent on connaît combien d’énergie est rayonnée à chaque seconde, et l’on connaît théoriquement combien de neutrinos sont rayonnés par rapport aux réactions de fusion de l’hydrogène, à chaque seconde. C’est donc une estimation théorique, pas empirique. En divisant la puissance solaire rayonnée par l’énergie moyenne exothermique de fusion thermonucléaire de l’hydrogène en hélium, on a une idée approximative du nombre de neutrinos émis par seconde par le soleil. Par exemple, avec 17,6 MeV (à titre d’exemple, je ne connais pas la valeur exacte) par réaction de fusion, et comme la puissance solaire est de 3,826×10²⁶ W, alors n = 3,826×10²⁶ / (17,6×10⁶×1,6×10⁻¹⁹) = 1,36×10³⁸ neutrinos par seconde, émis par le soleil. Maintenant, on va exprimer cela par unité de surface au niveau de l’orbite terrestre : je trouve environ 5,7×10¹⁴ neutrinos par seconde et par mètre carré. Le corps humain, de face, ou bien de dos, a une surface d’environ 1 m² (on appellera cela plutôt une section efficace de 1 m²).

Si on met environ 5 secondes à lire le tweet de Brian Greene, alors il y aura environ 2,85 millions de milliards de neutrinos solaires qui traverseront mon corps. Ainsi, le calcul montre que le tweet de Greene présente le même ordre de grandeur et que l’info est très crédible. Cependant, ce nombre de neutrinos solaires est théorique, on ne sait pas réellement si ces neutrinos non détectés existent vraiment et qu’ils nous traversent réellement le corps sans interagir avec les atomes, puisque l’absence d’interactions implique directement l’impossibilité d’observations impliquant l’impossibilité d’un comptage expérimental des neutrinos !

  • Ainsi, Brian Greene dit vrai par rapport aux aspects théoriques, mon calcul ci-dessus est venu le confirmer.
  • Mais au niveau expérimental pour corroborer notre hypothèse, l’absence d’interaction des neutrinos implique la non-observation, donc l’absence de données quantitatives. Sans preuves empiriques, on peut paraître avoir raison vis à vis de l’aspect théorique, mais on peut néanmoins se tromper par rapport aux faits.

Dans mon présent article, j’ai voulu montrer la nuance entre concept et expérience. Cela a toute son importance à mes yeux.

© 2013 John Philip C. Manson

Peut-on gagner 7 fois au Loto ?

Un américain aurait gagné pour la septième fois au Power Ball, le loto américain.

Pourtant, selon les spécialistes, les chances de gagner le gros lot sont de 1 sur 175 millions.
Très sceptique, on va évaluer ce phénomène douteux avec la théorie des probabilités. On va prendre l’exemple du jeu de dés pour bien illustrer les chances que l’on a pour sortir un chiffre précis.
  • Avec un seul dé à six faces, on a une chance sur 6 de sortir un 6.
  • Avec deux dés, on a une chance sur 6² = 36 de sortir un double 6.
  • Avec trois dés, on a une chance sur 6³ = 216 de sortir un triple 6.

La loi générale pour n’avoir que le chiffre 6 partout quand on lance N dés montre que la probabilité d’avoir le chiffre 6 partout est de 1 / 6^N  (l’accent circonflexe désigne l’élévation à la puissance).

Donc, avec le Loto américain, le PowerBall, la probabilité de remporter le gros lot est de 1 sur 175 millions. Cette information va se révéler importante.

Quelle est la probabilité pour qu’un homme précis gagne 7 fois le gros lot du Power Ball ?

P = (1 / 175 000 000)⁷ = 1 chance sur 5 026 507 568 359 375 000 000 000 000 000 000 000 000 000 000 000 000 000 000.

Je mets en valeur explicite le grand dénominateur de la fraction ci-dessus. Une chance sur environ 5 × 10⁵⁷.

La probabilité est quasiment nulle.

À titre de comparaison, prenons l’exemple d’une planète quelconque qui est éjectée de son orbite elliptique à cause de sa proximité d’un trou noir. Supposons que cette planète provienne d’aussi loin que le fond de l’univers observable (à des milliards d’années-lumière) et qu’elle se déplace presque à la vitesse de la lumière. Alors la probabilité pour qu’elle percute exactement la Terre au hasard par rapport à toutes les trajectoires possibles est de 1 / 4,2 × 10³⁸, ce qui est environ 12 milliards de milliards de fois PLUS PROBABLE que de gagner 7 fois le gros lot du PowerBall !!!

Si ce Loto est entièrement régi par le hasard, gagner 7 fois pour un seul homme est impossible, d’après la théorie des probabilités. En revanche, si ces 7 gains sont réels, alors ce n’est pas par hasard. Une piste pour une explication ? Voici cela : http://en.wikipedia.org/wiki/Powerball dans lequel on peut lire une suspicion de fraude. Dans une autre page : http://www.consumerfraudreporting.org/lotteryscam_Powerball2.php il y est question de mail frauduleux (un scam sur la loterie). Les arnaques sur des martingales ont toujours existé. Donc attention aux faux conseils. Une incitation à la prudence est publiée ici : http://fr.playitalianlotto.com/lottery-fraud-a-scams.html (en résumé : ne pas répondre aux scams, ne jamais envoyer d’argent, ne pas donner de coordonnées bancaires ou administratives, ne pas ouvrir des fichiers joints). Interpol s’occupe de ce type de fraude.

Dans une page, on peut lire la liste des probabilités de gain au PowerBall : http://fr.playitalianlotto.com/usa-powerball-lottery-lotto.html

Par exemple, on voit qu’avec 5 bons numéros, on a une chance sur 5 153 633 de gagner. Avec cette information, on peut calculer combien il y a de numéros au total.

x! / (5! × (x – 5)!) = 5 153 633                         je trouve une solution :  x = 59

Le nombre de numéros pour le jeu est donc de 59. C’est ce qui est dit dans la page, les numéros vont jusqu’à 59. Mon calcul se base sur un phénomène totalement aléatoire (l’analyse combinatoire), les numéros du PowerBall sortent donc vraiment au hasard. On ne peut donc pas trouver de méthode déterministe permettant de trouver les bons numéros pour remporter le gros lot. Dans ce contexte, une série inexpliquée de 7 jackpots éveille légitimement des suspicions…

DiplomeMartingale

iconlol

© 2013 John Philip C. Manson

Sur le consensus scientifique

Page intéressante. Elle dresse une liste de découvertes qui contredisent les croyances et les suppositions de leurs époques respectives.

Dans cette page, tout ce qui est décrit sur l’historique de la Terre plate, le géocentrisme, la théorie de l’évolution, la dérive des continents, le Big Bang et l’ère glaciaire est authentique.

Mais petit bémol : dans la terminologie du mot «ère glaciaire», c’est plus adapté pour l’ère glaciaire de Würm il y a 20000 ans, car concernant le vingtième siècle, quelques décennies ne définissent pas un climat planétaire. Un climat global, c’est sur une échelle de millénaires et de millions d’années.

Ensuite, au paragraphe sur E=MC², il est exact de dire que rien ne peut aller plus vite que la lumière, c’est le postulat de la théorie de la relativité, et la vitesse de la lumière a été fixée comme constante fondamentale en 1983 afin de définir le mètre à partir de l’unité du temps (la seconde). Cependant, quand l’auteur dit que certains scientifiques (lesquels ?) pensent avoir trouvé des particules (les tachyons ?) qui briseraient cette limite qu’est la célérité et qu’un autre (Alcubierre) prétend avoir trouvé une façon de voyager plus vite que la lumière. Pour rappel : les tachyons sont hypothétiques, l’espace-temps plissé d’Alcubierre (warp-driving) est hypothétique lui aussi. Les voyages interstellaires à très grande vitesse pourrait être un rêve impossible à réaliser : https://jpcmanson.wordpress.com/2013/03/12/de-limpossibilite-des-voyages-interstellaires-a-la-vitesse-de-la-lumiere/ Mais cela ne veut pas dire que les sceptiques affirment que les voyages supraluminiques n’existe pas. Cela veut dire qu’on ne peut pas savoir si c’est valide ou faux tant que des expériences n’auront pas été réalisées. On attend juste des preuves. Chaque découverte scientifique a été imprédictible  jusqu’au moment de ladite découverte. On ne sait pas ce que réservent les découvertes futures, rien ne penche en faveur d’une opinion ni d’une autre. On ne sait pas quand se fera une découverte scientifique, ni ce que sera la découverte scientifique. La méthode scientifique s’est consolidée seulement au vingtième siècle, grâce à Karl Popper qui a contribué à une avancée majeure, par le critère de réfutabilité. Avant Popper, la science était érigée en un système arbitraire de la vérité. On croyait auparavant que la science était la quête et la collection de vérités immuables et irréfutables. Le critère de réfutabilité a révolutionné la science moderne : les théories sont des représentations faillibles de la réalité, les théories sont (au mieux) crédibles mais elles ne sont pas LA réalité. La réfutabilité établit la faillibilité des connaissances. Nous ne savons rien de la réalité, nous n’avons que des modèles scientifiques, donc faillibles et réfutables. La science moderne, depuis Popper, ne construit pas des vérités, mais procède par élimination des hypothèses fausses quand celles-ci ont été réfutées à travers des observations ou des expériences. Une hypothèse est dite réfutable si elle a la potentialité d’être invalidée si ladite hypothèse est fausse, et une expérience scientifique doit donc permettre cette possibilité de pouvoir dire si l’hypothèse colle avec les faits OU si elle contredit les faits. Quand une hypothèse ne peut pas être testée, que l’on ne peut pas répondre par oui (ça colle) ou non (ça contredit), alors l’hypothèse n’est pas scientifique.

Voici une citation qui résume bien ce qu’est la science moderne grâce au critère de réfutabilité :

  • « La qualité d’une expérience se mesure au nombre de théories qu’elle fait tomber. » (d’après un professeur à Polytechnique et chercheur au CNRS)

Ensuite, à propos du paragraphe sur le multivers, il faut souligner que ce sujet pose un problème épistémologique. Avant Karl Popper, la science était scientiste, elle érigeait des découvertes (ainsi que les suppositions) en vérités définitives. Les grecs antiques, eux, se basaient généralement sur des concepts, pas sur des lois de la physique, à part quelques esprits scientifiques comme Ératosthène et Hipparque et d’autres. Que dit la science moderne ? La science se base sur la réfutabilité : une hypothèse doit pouvoir être testée expérimentalement ou via des observations, afin de l’infirmer si elle est fausse. Peut-on faire une observation ou une expérience pour observer des univers parallèles ? Apparemment, non. L’hypothèse des multivers est-elle scientifique ? La question vaut d’être posée. Je n’affirme pas que le multivers n’existe pas ni qu’il existe. Le multivers semble être une hypothèse qui ne peut pas être testée. On ne peut pas prouver qu’une hypothèse est fausse si on n’a pas la possibilité de faire une observation permettant la réfutation de l’hypothèse si celle-ci est fausse. En dehors du cadre de la science, on entre dans le domaine de la métaphysique. https://jpcmanson.wordpress.com/2013/03/19/les-univers-alternatifs-quest-ce-que-cest/

Ensuite, en ce qui concerne le voyage dans le temps, c’est possible d’après la théorie de la relativité, mais seulement pour aller vers le futur. Les satellites GPS ont un retard de quelques milliardièmes de seconde par rapport à nous : plus on se déplace vite par rapport à un référentiel, plus notre horloge retarde par rapport à celle du référentiel. Le voyage vers le passé pourrait être impossible à cause des paradoxes temporels. Mais on ne peut rien dire de concret tant qu’on n’a pas de réponse via des expériences.

Ensuite, l’auteur dit ceci, je cite : «Un consensus scientifique ça n’existe pas ! Les scientifiques sont constamment en train de mettre à l’épreuve une théorie. Chaque tentative qui n’est pas confirmée sert à renforcer la théorie originale, jusqu’à ce qu’on en trouve une qui arrive à la contredire.»  C’est exact. Je rajouterai cependant ceci : il suffit d’un seul contre-exemple factuel pour invalider complètement une hypothèse, voire une théorie entière.

Ensuite, les arguments sur la climatologie sont à nuancer. La température moyenne globale s’est bien élevée de 0,6°C sur les 100 dernières années, le réchauffement est une réalité, mais il n’est pas homogène, et il y a des choses à éclaircir. Pour résumer, le réchauffement climatique est une réalité, mais sa médiatisation comporte certaines maladresses et contre-vérités. On veut nous inoculer des certitudes, alors qu’il existe un certain nombre d’incertitudes. Il faut de la transparence, de l’intégrité intellectuelle par rapport aux faits, en totale indépendance de toute influence politique et de celle de groupes de pression comme les ONG. Il faut une démarcation entre ce qui est factuel, et ce qui est faux, en totale objectivité.

Il est difficile d’analyser tout ce qui se dit en climatologie. Mais je peux dire qu’il existe des failles. Celles-ci ne remettent pas en question la réalité du réchauffement climatique, mais la façade est quelque peu maquillée. Le journalisme met des titres racoleurs et alarmistes, la peur fait vendre, c’est une recette qui marche…

Articles internes :

L’objectif n’est pas de nier en bloc le réchauffement climatique parce que l’on n’y croit pas. L’enjeu, c’est de démêler le vrai du faux, il faut un dépoussiérage (au plumeau ou au kärcher ?).

iconlol

Suite ici : https://jpcmanson.wordpress.com/2013/04/17/sur-le-consensus-scientifique-suite-via-facebook/

 

cheval

Les théories scientifiques c’est comme les lasagnes au «bœuf» : c’est faillible, donc il faut analyser.

© 2013 John Philip C. Manson

Ma position par rapport au mouvement des Brights

Le Mouvement des brights regroupe des individus qui portent sur le monde un regard « naturaliste », c’est-à-dire libre de tout élément surnaturel ou mystique ; les brights fondent leur éthique et leur comportement sur une compréhension naturaliste de l’univers. S’inscrivant dans la continuité des Lumières, le réseau international des brights s’est constitué comme mouvement de visibilité de celles et ceux qui portent un regard « naturaliste » sur le monde ; le mode d’existence du réseau est basé sur l’utilisation d’internet.

  • Le naturalisme philosophique est la position selon laquelle rien n’existe en dehors de la nature : il n’y a rien de surnaturel ou, à tout le moins, que le surnaturel est sans influence sur le naturel.
  • Le siècle des Lumières est un mouvement intellectuel initié en Europe du XVIIIe siècle, dont le but était de dépasser l’obscurantisme et de promouvoir les connaissances; des philosophes et des architectes intellectuels, encourageaient la science et l’échange intellectuel, en s’opposant à la superstition, l’intolérance et les abus de l’Église et de l’État.

Voici ma vision des choses ci-dessous (c’est identique à la science actuelle, quand la méthode scientifique est respectée avec intégrité, professionnalisme et transparence) :

En ce qui me concerne, ma philosophie se base sur un naturalisme atomiste, matérialiste, mécaniste et empiriste. Je me base sur la méthode scientifique à travers le critère de la réfutabilité, dans le sens donné par Karl Popper. Le principe de réfutabilité en science a pour conséquence que la science n’établit pas des vérités inébranlables, mais des vérités faillibles fondées sur des représentations faillibles de l’univers et de la nature, à travers la recherche empirique. Ce qu’on appelle vérité est quelque chose de relatif. En revanche, des hypothèses fausses qui sont réfutées par des faits, sont infirmées définitivement. C’est la fausseté réelle des choses fausses qui est une vérité bien tranchée. Ainsi, à la lumière des faits, des connaissances peuvent être soit a priori vraies, soit certainement fausses. Une hypothèse (ou même une théorie scientifique) ne s’érige pas en vérité ; une hypothèse ou théorie est évaluée selon sa solidité par confrontation aux faits.

En physique et dans les autres sciences de la nature, une connaissance est faillible : si elle est fausse en soi, sa fausseté peut être définitivement établie, tandis que si elle est vraie en soi, on ne pourra pas prouver qu’elle est absolument vraie, on pourra juste corroborer la connaissance, on remarquera sa cohérence. Ce qu’on appelle la vérité, en sciences, ne se trouve que dans les mathématiques. Les maths sont indépendantes du monde matériel, elles sont abstraites, leurs lois leur sont propres. C’est étonnant que les maths soient autonomes par rapport au monde matériel, et qu’en même temps les maths peuvent expliquer de nombreux phénomènes matériels. Je suppose que le grand mathématicien Cédric Villani est de mon avis.   😉  Et désolé si je ne dis pas «LA mathématique», au singulier, question de (mauvaise) habitude.  🙂

De plus, les maths ont un avantage : il suffit d’un crayon et d’un papier, ou d’une craie et d’un tableau noir (mais un superordinateur pour les calculs longs c’est bien mieux). Les sciences expérimentales, elles, sont plus contraignantes : il faut un budget pour les instruments scientifiques, il faut faire un montage expérimental rigoureux (c’est facile de foirer une expérience), et parfois ça explose à la figure.

iconlol

  • Question métaphysique : la matière précède t-elle les mathématiques ? L’homme pensant invente ou crée les maths et les utilisent. Les cerveaux préexistent par rapport à l’existence des maths. Les maths existeraient-elles s’il n’existait pas d’hommes pensants ?

Je pense que les maths sont une extension de notre propre conscience. Peut-être que la conscience elle-même est un calcul auto-référent, mais je préfère vous éviter la migraine.

Retour sur ce qu’est une théorie scientifique :

methodescientifique

Pour faire une métaphore, une théorie est comme la sculpture d’une statue : on n’ajoute pas du matériau à l’ouvrage, mais on procède par élimination, on enlève ce qui est superficiel, comme si on taillait un roc informe, et l’ouvrage qui reste est ce qui est a priori vrai, sinon crédible. Mais c’est un ouvrage crédible qui ne sera jamais achevé définitivement, car il est sans cesse affiné petit à petit. A contrario, les hypothèses et théories douteuses, dans le contexte de la fraude scientifique, ou de la science fringe, ou de la pseudo-science, se caractérisent par des rustines multiples ajoutées ad hoc selon les faits nouveaux, sans même corriger ni remettre en question l’hypothèse ou la théorie érigée en dogme… Plus on rajoute des rustines sur les roues d’une théorie pour sauver celle-ci, moins le vélo roulera bien…

Ma vision naturaliste est caractérisée par des critères précis : un naturalisme scientifique dépourvu autant que possible de toute forme de subjectivité, un naturalisme fondé sur l’expérimentation et la réfutabilité. Une conception fondée sur l’utile et le nécessaire, tout en ayant conscience des incertitudes inévitables.

Jamais il ne faudrait dire qu’une théorie scientifique est vraie. Elle peut être vraie et cohérente mathématiquement, mais la physique comporte des incertitudes quantitatives que les mathématiques strictes ignorent. Par exemple, l’infini existe en maths, mais pas en physique. Une théorie scientifique n’est donc pas une vérité absolue, on dit plutôt que la théorie est crédible, à la fois par rapport aux maths, et à la fois par rapport aux expériences ou observations. Et cette crédibilité se mesure sur la cohérence propre de la théorie (accord entre les maths et l’expérience du réel) mais aussi sur la cohérence par rapport à l’édifice scientifique établi et par rapport aux sciences interdisciplinaires. Par exemple, en électrochimie, par exemple en réalisant une électrolyse : les lois de la physiques (électrostatique, électrodynamique, électromagnétisme) ne doivent pas entrer en contradiction avec les lois de la chimie (théorie de l’atome, modèle atomique, réactions chimiques).

Ensuite, jamais je n’accepte de voir la science associée à la pseudo-science et au mysticisme. Karl Popper avait posé un principe de démarcation épistémologique. Cette démarcation est une nécessité.

Et jamais je n’accepte de voir la science récupérée abusivement par des idéologies politiques ou religieuses dont la finalité est le pouvoir et le profit au mépris de la démocratie et de la liberté des peuples. La science doit rester indépendante de toute influence subjective. Le lyssenkisme sous l’idéologie soviétique par exemple. Le créationnisme par l’intégrisme chrétien ou autre, aussi, par exemple.

La désinformation est inacceptable. Tout citoyen a droit à l’information et à l’éducation. Les journalistes ont des devoirs déontologiques (Charte de déontologie du journalisme) : devoir de vérité, devoir de rectifier ce qui est inexact, devoir de rester critique, refus du sensationnalisme.

De même, le naturalisme non plus ne doit pas dénaturer la science pour servir l’athéisme. Ce que l’on croit ou ce que l’on ne croit pas ne fait pas partie de la science. Si j’avais des croyances, je les aurais mises au vestiaire quand j’entre dans l’arène de la science. En tant qu’athée ou agnostique, cela importe peu sur le suivi de la démarche scientifique. Les émotions aussi, il faut les laisser au vestiaire. Je n’ai besoin que d’un cerveau frais pour faire un raisonnement logico-mathématique, des yeux pour observer et expérimenter, et l’absence de subjectivité afin d’interpréter sans superficialité les données quantitatives des phénomènes observés.

La connaissance est un édifice faillible fondé sur une méthode qui a fait ses preuves. La science, ça marche, mais des conditions sont à respecter.

Si dépasser l’obscurantisme et promouvoir les connaissances sont l’objectif des Brights, je vais plus loin que ça. Comment ça ? La connaissance pourrait être vue comme une vérité qui abolit les mensonges de l’obscurantisme. Dans mon blog, j’ai montré que même des connaissances à l’apparence scientifique, à travers les médias de tous les jours, sont matière à tromperies, erreurs, lacunes et croyances… Le scepticisme scientifique, selon moi, doit s’appliquer aussi sur la (mauvaise) vulgarisation scientifique via le journalisme grand public. Depuis une dizaine d’années, et avec l’influence d’Internet, la vulgarisation perd en qualité (certains magazines, mais surtout dans le web), ça devient comme la malbouffe… On remplit le cerveau vite, mais mal, et inutilement. Mieux vaut former le cerveau au doute. L’émergence de magazines pseudo-scientifiques aggrave les choses.

J’ai ouvert une porte, d’autres devraient me suivre. Il n’existe pas d’information infaillible, le taux d’erreurs quantitatives dans le mauvais journalisme des sciences est plus grand qu’on ne l’avait pensé. La méthode scientifique et le raisonnement logico-mathématique c’est plus important que le concept de naturalisme, bien que les sciences tendent à montrer que l’univers est naturel et que l’hypothèse d’un Dieu est inutile. La science n’a pas à s’embarrasser de mysticisme. La rigueur dans la méthode scientifique, à travers la réfutabilité des hypothèses et des théories, c’est plus important que la crédibilité des théories elles-mêmes. En gros, peu importe la laideur de la destination, pourvu que le voyage ait été bon, Voila.

Tout doit être autopsié (tout doit-il disparaître ?). De quoi être indécis entre l’autopsie et la boucherie… Toubib or not toubib, that is the question.

iconlol

© 2013 John Philip C. Manson