Comment prouver scientifiquement avec une expérience

Comment prouver scientifiquement l’existence d’un phénomène au moyen d’une expérience, avec l’appui des statistiques ?

Supposons un individu prétentieux qui affirme avoir des pouvoirs paranormaux, en ayant en particulier un prétendu pouvoir de clairvoyance.

Ainsi, si on fait des tests avec un jeu de cartes de Zener, on devrait pouvoir confirmer l’existence d’un phénomène distinct du seul hasard. Si cela n’est pas causé par le hasard, parmi les hypothèses on pourra supposer l’existence d’un don paranormal, mais on peut aussi supposer d’autres explications plus plausibles (sans en négliger aucune), comme la triche, la fraude, l’hallucination, la supercherie…

Mais on peut surtout réfuter l’hypothèse du don paranormal, en prouvant que les résultats obtenus sont les mêmes que ceux que produit le hasard.

 

Voici les cartes Zener, il y en a 5 types distincts :

zener

Un cercle, une croix, des vagues, un carré, et une étoile. En prenant soin que les cartes soient bien opaques (sans transparence), et sans signe extérieur de reconnaissance, afin d’écarter toute fraude.

La probabilité P de deviner, au hasard, une carte, est de 1 sur 5, soit 20%.

Ensuite, on définit par N un nombre d’essais : le nombre de fois que le prétendu médium devra deviner chaque carte Zener. Et plus il y a d’essais, mieux c’est.

Pour évaluer la crédibilité d’un phénomène prétendu, on doit le comparer avec le hasard. En moyenne, selon la loi binomiale, il y a réussite de 5 essais sur 25 tests, plus ou moins 3,92. Plus généralement : N*P ± 1.96 * (N * P(1-P)), avec un seuil p=0,05.

 

  • Pour 25 essais, l’intervalle de confiance à 95% est compris entre 1,08 et 8,92 essais réussis au hasard. En dehors de cet intervalle, on dit qu’un résultat expérimental est significativement différent du hasard.
  • Pour 100 essais, l’intervalle de confiance à 95% est compris entre 12,16 et 27,84 essais réussis au hasard. Là aussi, en dehors de cet intervalle, on dit qu’un résultat expérimental est significativement différent du hasard.

Et quand un résultat expérimental indique un score de réussite situé dans l’intervalle, il n’est pas significatif, et le phénomène est alors attribué au hasard.

  • La probabilité de réussir au hasard 25 essais sur 25 (taux de réussite de 100%) est d’environ 1 chance sur 298 millions de milliards.
  • La probabilité de réussir au hasard 100 essais sur 100 (taux de réussite de 100%) est d’environ 10⁻⁷⁰.

Quand un résultat apparaît comme significatif, prendre d’abord les hypothèses les plus simples et les plus vraisemblables : toujours vérifier d’abord s’il n’y a pas eu triche, fraude, supercherie ou hallucinations, avant de prendre l’hypothèse d’un don paranormal.

 

John Philip C. Manson

 

Nombre pi, géométrie dans le plan et expériences aléatoires

La polémique à propos de l’apparente difficulté de l’épreuve de maths pendant le Bac S 2014 a des conséquences positives. Lorsqu’on plonge dans les maths, et quand on a des idées et beaucoup d’imagination, on peut suivre certaines pistes intéressantes dans le domaine des mathématiques. En explorant la géométrie suite à la réflexion portée sur l’exercice 4 de l’épreuve de maths du Bac S, et qui a aiguisé mon inspiration, et puis en associant la géométrie avec des expériences de simulation du hasard, on peut tomber sur des trucs intéressants.

 

Premier exemple :

J’imagine un repère orthonormé 0;i;j. Soit un carré EFGH de côté 1 dont les coordonnées des côtés sont (0;0) et (0;1) et (1;0) et (1;1). Ensuite, on considère que dans l’aire du carré EFGH (aire qui vaut 1), on génère aléatoirement 3 points A et B et C dont les réels x et y (coordonnées respectives de A,B,C) appartiennent à l’intervalle [0;1].

ABC, par ses 3 points, forme un triangle quelconque ABC. La formule de Héron permet d’en calculer l’aire.

L’enjeu est de déterminer l’aire moyenne de ABC par rapport au carré EFGH. Pour cela, j’ai généré des millions de triangles pour évaluer cette aire moyenne rapportée à celle du carré.

Le rapport moyen vaut environ 0,076. Je m’attendais à découvrir un nombre réel où le nombre pi intervenait. En gros, le quotient moyen semble compris entre 1/(4×pi) et 3/(4×pi²). Je n’ai pas d’autre information là-dessus, c’est à explorer…

Souvent, le nombre pi intervient dans des phénomènes aléatoires. C’est le cas pour l’expérience de probabilité de l’aiguille de Buffon. Pareillement pour la loi normale (avec les courbes de Gauss : voir ici http://upload.wikimedia.org/math/8/f/1/8f1da4cf31d40e7b18f29c22a78c7abd.png).

 

 

Deuxième exemple :

Certains d’entre nous ont entendu dire que le rapport entre la longueur réelle d’un fleuve ou d’une rivière et la distance à vol d’oiseau entre la source et l’estuaire serait égal au nombre pi.

Cela en parle dans cette page : http://villemin.gerard.free.fr/Wwwgvmm/Geometri/PiCurios.htm

Je cite :

  • « 3,14 =rapport entre la longueur réelle d’un fleuve, et sa longueur à vol d’oiseau. Loi postulée par Einstein et constatée par Hans-Hendrick Stolum, spécialiste des sciences de la Terre. »

J’ai vérifié avec le cas de la Loire, un célèbre fleuve français. Selon les géographes, la Loire mesure 1006 km de long, lorsque l’on suit les sinuosités. Ayant moi-même localisé la position géographique de la source (dans l’Ardèche) et celle de l’estuaire (à St Nazaire), et grâce à un calcul que j’ai mis au point il y a quelques mois pour calculer la distance à vol d’oiseau (en suivant la rotondité terrestre) entre deux points de la surface du globe (grâce aux coordonnées GPS), j’ai établi que le rapport vaut 1006 / 562,56 = 1,7883, donc proche de 1,8, ce qui est franchement loin du nombre pi.

Remarque à propos de Wikipedia : l’article sur la Loire (fleuve) raconte que la longueur du fleuve est de 1006 km, mais d’autres articles dans Wikipedia (liste des fleuves français) racontent que la Loire est longue de 1012 km… Je me suis aperçu de ça sur Google, avec les mots clés : longueur Loire. Cela ne change pas grand chose dans mes présents calculs, heureusement, mais les contradictions rencontrées dans Wikipedia ne font pas de celle-ci une référence fiable… La validité d’une information ne se mesure pas à la rapidité de son accès sur le web, mais à son exactitude.

Poursuivre la vérification avec d’autres fleuves est long. J’ai donc développé un programme de simulation qui génère aléatoirement les « courbures » des méandres d’un fleuve. Si l’écoulement est isotrope, c’est-à-dire sans direction d’écoulement privilégiée, le rapport tend vers 10,36 à 10,37 (auquel cas le fleuve peut croiser ses propres méandres, ce qui ne correspond pas à ce qui se passe dans la nature). Cependant, si l’écoulement se dirige dans la direction du vecteur OP (1;1) qui passe par le point O (0;0), alors le rapport devient nettement plus faible (le fleuve dans son parcours ne fait pas intersection avec lui-même). Tout dépend des reliefs rencontrés par le fleuve dans une direction d’écoulement due aux pentes locales.

Sur l’appui des maths, je n’ai pas encore, pour le moment, des preuves que le rapport entre la longueur sinueuse d’un fleuve et de sa longueur à vol d’oiseau tendrait vers le nombre pi. L’anecdote sur Einstein qui aurait lui-même évoqué un tel rapport qui serait égal au nombre pi serait-elle une légende urbaine ?

Je n’ai actuellement aucune conclusion définitive. Néanmoins, le cas de la Loire montre concrètement que le rapport tend vers 2 plutôt que vers 3,1415927… C’est ce qu’affirme aussi ce site : http://www.pi314.net/fr/anecdotespi.php dont je cite : «Skolum (1996) vérifia que le rapport entre la longueur réelle et la longueur à vol d’oiseau (distance entre la source et l’embouchure) d’une rivière égalait en moyenne Pi . Ce rapport se retrouve davantage au Brésil ou dans la toundra sibérienne, mais cela reste à vérifier… Pour ma part, en France, je trouve que le rapport est à chaque fois plutôt proche de 2 (coïncidence, d’ailleurs ?). »   Le doute est donc légitime.

Affaire à suivre.

Élément nouveau : j’ai vérifié pour la Seine, sa longueur courbée vaut 776 à 777 km, et mon calcul indique que la distance à vol d’oiseau entre la source et l’estuaire vaut 400,26 km. La division indique que 777 / 400,26 = 1,94, ce qui est proche de 2. Mais pas du nombre pi.

© 2014 John Philip C. Manson

 

La science est la croyance en l’ignorance des experts

  • Mon blog touche à sa fin. Je publie ici le dernier article dont le thème est un lien ci-dessous : c’est une traduction par le Dr Goulu d’un texte du professeur Richard P. Feynman. 

Le texte de Feynman est relatif à la faillibilité des savoirs et ce qui fait la science. Ce qui fait la science, ce ne sont pas les mots que l’on met sur les choses, mais l’expérience des choses.

Ce que montre Feynman est formulé différemment par rapport à l’épistémologie de Karl Popper (sur la potentialité de réfutabilité des hypothèses scientifiques), mais c’est sur le même principe. C’est très bien que le Dr Goulu ait publié ce texte.

Feynman explique que l’on est jamais sûrs de rien. En ce sens, comme je l’avais déjà raconté dans mon blog : la science est fondée sur des expériences et des observations, mais pas sur la confiance envers des opinions, ou des experts, ou des idéologues. Cela peut paraître choquant pour certaines personnes qui ont une préférence pour des vérités définitives et immuables, mais c’est la Nature qui fait ce que les choses sont (et on apprend à mieux connaître la Nature si possible, avec des expériences), ce ne sont pas les experts qui décident ce que doit être la Nature. Ce n’est pas le jargon qui fait la science, mais ce que l’on fait sur le terrain. Cela ne signifie pas la relativité des savoirs où toutes les opinions se valent (comme le pensait Feyerabend et le postmodernisme intellectuel et, aujourd’hui, un certain négationnisme antiscientifique), l’expérimentation a prévalence sur les mots eux-mêmes. Des mots sans exploration du problème, sans l’approfondissement d’une idée, sans des observations concrètes, ne veulent rien dire et n’enseignent rien.  «Qu’est-ce qui fait bouger ce jouet ?» «L’énergie». Mettre le mot « énergie » sur une chose n’apporte guère la compréhension du phénomène.

Les mots sont le propre de l’Homme, et l’être humain est faillible.

Selon moi-même, ce qui fait un livre de science ou de vulgarisation scientifique, c’est un livre qui montre comment réaliser des expériences ou qui explique comment des expériences ont été conduites (c’était le cas de Science-et-Vie jusqu’à la fin des années 1990, avec les rubriques «l’informatique amusante» et la «chimie amusante» et la «biologie amusante»). Mais un livre rempli uniquement de mots, sans inciter et encourager à expérimenter par nous-mêmes, n’est pas vraiment un livre de science.

feynman1

« Nous ne pouvons pas définir n’importe quoi précisément. Si nous y tentons, nous allons dans cette paralysie de la pensée qui vient des philosophes…  L’un qui dit à l’autre : vous ne savez pas de quoi vous parlez ! Le second dit : que voulez-vous dire par parler ? que voulez-vous dire par « vous » ? que voulez-vous dire par savoir ? »

feynman2

« Vous pouvez connaître le nom d’un oiseau dans toutes les langues du monde, mais quand vous avez terminé, vous ne saurez absolument rien du tout de l’oiseau. Alors regardons l’oiseau et observons ce qu’il fait — c’est ce qui compte. J’ai appris très tôt la différence entre connaître le nom de quelque chose et savoir quelque chose. »

feynman3

« Ce n’est pas important combien votre théorie est belle, ce n’est pas important combien vous êtes intelligent. Si ce [votre théorie] n’est pas en accord avec l’expérience, elle est fausse. »

Bonnes fêtes de fin d’année à tous. 🙂

© 2013 John Philip C. Manson

L’expérimentation scientifique, un échec

Je découvre quelque chose sur Yahoo qui confirme ce que je pensais au sujet de l’enseignement des sciences.

Voici une copie d’écran :

questionYQR

 

Autre copie d’écran :

yqr2

Les lycéens savent résoudre des exercices vus dans des livres, après avoir suivi un cours sur des connaissances de base. Les livres scolaires sont alors assimilables à des vérités immuables prédigérées. Mais les livres ne sont qu’un moyen indirect d’accès aux connaissances scientifiques. On ne devrait connaître que ce que on a expérimenté soi-même. La démarche scientifique est l’expérimentation : on observe des phénomènes et on réalise des mesures quantitatives, on teste des hypothèses. La science c’est cela. Mais réduire la science à des cours dirigés par des livres, c’est dénaturer ce qu’est vraiment la science. On ôte aux lycéens l’accès aux définitions de base de ce qu’est la science. Ainsi je ne suis pas étonné dans un pareil contexte que les lycéens soient si démunis quand leur professeur leur demande de réaliser un devoir basé sur des exemples de démarche scientifique. Parce que les élèves, bien qu’ils sachent faire des exercices classiques, ne savent pas ce qu’est la science par définition, à travers les critères épistémologiques. C’est une lacune que l’Éducation Nationale devrait s’efforcer de combler… Avant même d’enseigner certaines théories scientifiques, l’école devrait d’abord décrire en quoi consiste la méthode scientifique et inciter les élèves à expérimenter eux-mêmes !

© 2013 John Philip C. Manson

Un paradoxe empirique à propos des neutrinos

briangreene

J’ai lu Greene sur Twitter récemment. Il arguait qu’en quelques secondes il y avait un million de milliards de neutrinos qui nous traversaient le corps.

Traduction littérale : «Pendant qu’on lit ça, environ un million de milliards de neutrinos traverseront votre corps. (Minimisez en ajustant votre angle au soleil).»

Je voudrais bien le croire, mais il y a un problème empirique. En effet, on sait que les neutrinos interagissent très peu avec la matière. Il y a plusieurs types de détecteurs de neutrinos. Leur principal point commun est d’être composé d’une grande quantité de matériel, étant donnée la faible section efficace d’interaction des neutrinos. De plus, les antineutrinos, comme les neutrinos, n’interagissent avec leur environnement matériel que via la gravitation et des forces faibles, ce qui rend leur détection expérimentale très difficile. Source : https://fr.wikipedia.org/wiki/Neutrino#Types_de_d.C3.A9tecteurs_de_neutrinos

Donc quand les neutrinos nous traversent sans interagir avec nos atomes, on ne peut donc pas les détecter ni observer la moindre interaction. Au mieux, nous observerons quelques traces de collisions quand il y aura interaction, mais on ne saura jamais empiriquement combien il y a réellement de neutrinos qui nous traversent sans interagir, puisque sans interaction on n’observe rien, et que par conséquent on ne peut pas compter ces neutrinos invisibles.

Donc d’où provient le nombre avancé par Brian Greene ?

Cela m’intrigue… Je présume que c’est un calcul non étayé par des observations, parce que la majorité des neutrinos traverse la matière presque sans interaction, et qu’il n’y a pas d’observations sans phénomènes d’interactions. Le calcul aura été peut-être inspiré par les réactions thermonucléaires du soleil : on connaît la puissance lumineuse rayonnée par le soleil, et par conséquent on connaît combien d’énergie est rayonnée à chaque seconde, et l’on connaît théoriquement combien de neutrinos sont rayonnés par rapport aux réactions de fusion de l’hydrogène, à chaque seconde. C’est donc une estimation théorique, pas empirique. En divisant la puissance solaire rayonnée par l’énergie moyenne exothermique de fusion thermonucléaire de l’hydrogène en hélium, on a une idée approximative du nombre de neutrinos émis par seconde par le soleil. Par exemple, avec 17,6 MeV (à titre d’exemple, je ne connais pas la valeur exacte) par réaction de fusion, et comme la puissance solaire est de 3,826×10²⁶ W, alors n = 3,826×10²⁶ / (17,6×10⁶×1,6×10⁻¹⁹) = 1,36×10³⁸ neutrinos par seconde, émis par le soleil. Maintenant, on va exprimer cela par unité de surface au niveau de l’orbite terrestre : je trouve environ 5,7×10¹⁴ neutrinos par seconde et par mètre carré. Le corps humain, de face, ou bien de dos, a une surface d’environ 1 m² (on appellera cela plutôt une section efficace de 1 m²).

Si on met environ 5 secondes à lire le tweet de Brian Greene, alors il y aura environ 2,85 millions de milliards de neutrinos solaires qui traverseront mon corps. Ainsi, le calcul montre que le tweet de Greene présente le même ordre de grandeur et que l’info est très crédible. Cependant, ce nombre de neutrinos solaires est théorique, on ne sait pas réellement si ces neutrinos non détectés existent vraiment et qu’ils nous traversent réellement le corps sans interagir avec les atomes, puisque l’absence d’interactions implique directement l’impossibilité d’observations impliquant l’impossibilité d’un comptage expérimental des neutrinos !

  • Ainsi, Brian Greene dit vrai par rapport aux aspects théoriques, mon calcul ci-dessus est venu le confirmer.
  • Mais au niveau expérimental pour corroborer notre hypothèse, l’absence d’interaction des neutrinos implique la non-observation, donc l’absence de données quantitatives. Sans preuves empiriques, on peut paraître avoir raison vis à vis de l’aspect théorique, mais on peut néanmoins se tromper par rapport aux faits.

Dans mon présent article, j’ai voulu montrer la nuance entre concept et expérience. Cela a toute son importance à mes yeux.

© 2013 John Philip C. Manson

Une vocation pour les maths et/ou la physique ?

Comment naît (ou faire susciter) une vocation en maths et en physique ?
Une vocation pour les maths et/ou la physique : une volonté, un plaisir, une méthode,… et des dangers à connaître.

  • On devient bon en maths en travaillant régulièrement.
  • On devient cancre par l’habitude de la paresse.

C’est en forgeant qu’on devient forgeron.

C’est aussi simple que cela. Avant de se lancer dans les sciences, il faut maîtriser le langage. La lecture des dictionnaires est essentielle pour comprendre les définitions des mots. Il est important d’élargir le vocabulaire.

Les maths et les sciences, comme tout domaine (comme le sport par exemple), c’est par l’envie d’apprendre et de comprendre. Le talent c’est l’envie de faire quelque chose, en y trouvant plus de plaisir que d’avoir l’impression de devoir accomplir une corvée.

Une motivation, ça arrive soudain, un jour, par un déclic, un détail, quand on recherchait soi-même une réponse à un truc. Puis la curiosité déclenche une réaction en chaîne : une boulimie d’apprendre toujours plus. Savoir qu’on peut trouver tout seul, c’est s’ouvrir à l’indépendance et la liberté. Pourquoi les profs feraient vos devoirs à votre place ? Et pourquoi (dans un tout autre contexte) laisseriez-vous des gourous penser à votre place ?

Donc bref, apprendre, être curieux, multiplier les situations à résoudre, mais disposer d’un outil précieux à ne pas négliger : l’esprit critique. Pour rester objectif. Et se souvenir des critères épistémologiques de la science, à travers le problème de la démarcation entre la science et ce qui ne relève pas de la science. Pour éviter l’amalgame entre science et mysticisme. Et se souvenir que les théories sont des représentations faillibles du réel (à travers l’observation ou l’expérimentation). Voici un exemple épistémologique très simple qui résume la scientificité : la carte n’est pas le territoire. Ces critères s’appliquent aux sciences de la nature dont la physique, les maths étant l’édifice de toutes ces sciences. J’ai dit que la carte n’est pas le territoire : en effet, les maths servent à décrire et expliquer des opérations et des expériences de physique, mais pas le contraire. C’est-à-dire que la vérité scientifique ne se construit pas d’abord sur des concepts mathématiques ou géométriques pour tenter d’inventer la réalité physique. Ainsi, le chercheur indépendant Antony Garrett Lisi (http://fr.wikiquote.org/wiki/Antony_Garrett_Lisi) avait présenté une «théorie» douteuse dans laquelle il affirme que «les équations algébriques qui décrivent le comportement de toutes les particules sont la conséquence de la géométrie d’un seul objet (Le groupe de Lie E8). Tout le contenu de l’Univers n’est donc que pure géométrie !» (source : Science et vie, nº 1084, janvier 2008, p. 51).

La physique n’a jamais été la conséquence des mathématiques. Les maths ne sont pas ladite réalité physique ni sa trame. Les maths ne sont qu’un outil pour construire une théorie abstraite à partir des faits de la physique, une théorie scientifique axiomatisée c’est elle qui est la conséquence des données quantitatives issues des observations et des expériences de physique. Les phénomènes précèdent leur théorisation, pas le contraire. On observe d’abord, afin de recueillir des données quantitatives (à travers des mesures), ensuite ces données sont comparées entre elles afin d’établir des lois physiques, puis l’on construit une théorie. Par exemple, le résultat de l’expérience de Michelson-Morley en 1887, qui contredisait l’hypothèse de départ, a eu pour conséquence la théorie de la relativité restreinte (d’Einstein) en 1905. Il est évident que l’on ne construit pas de théorie sans données physiques. Autrement, c’est brasser de l’air, c’est faire de la spéculation au risque de diverger de la méthode scientifique. Bref, une page remplie d’équations n’est pas l’univers ni la cause de l’univers, au même sens qu’une carte n’est pas le territoire, ni qu’une carte n’est la cause du territoire. Le territoire existe d’abord (il préexiste), ensuite on dessine une carte pour représenter ce territoire que l’on observe et explore (directement sur le terrain ou par vue aérienne, voire par photo satellite). On observe, puis on tire des conclusions. Mais émettre des concepts avant même d’observer ou d’expérimenter, ce n’est pas vraiment de la science.
En plus, A. Garrett Lisi annonce que «en outre, [la théorie] prédit pour l’instant une constante cosmologique gigantesque, alors que les observations la donnent très petite.»    En voila un qui décide comment doivent être les faits, en dépit des observations, plutôt que reconnaître l’invalidité de la prédiction, celle-ci étant réfutée par les faits eux-même. Depuis quand une théorie est-elle dogmatiquement vraie et que les faits sont faux ? Une théorie scientifique a pour définition selon laquelle la théorie doit pouvoir être réfutée si celle-ci est fausse, donc une théorie peut être fausse. Par contre, les faits, c’est-à-dire l’observation et l’expérimentation rigoureuses des phénomènes physiques, contrairement aux interprétations qu’on en fait, ne peuvent mentir.
Dans Wikiquotes.org, la catégorie des «auteurs scientifiques» incite à s’y interroger. C’est dans ce site que j’avais pu trouver les citations de A. Garrett Lisi. Maintenant, je me penche sur le cas du chercheur japonais Masaru Emoto. Selon Wikiquote, ce chercheur étudierait les effets de la pensée sur l’eau.
À première vue, cela paraît déjà bizarre. Mais pour en avoir le cœur net, examinons les citations de M. Emoto.
Je cite Emoto : «Les 70% environ de notre planète sont recouverts d’eau, et 70% environ du corps humain ne sont qu’eau» (Le miracle de l’eau (2007), Masaru Emoto (trad. Gérard Leconte), éd. Guy Trédaniel, 2008 (ISBN 978-2-84445-866-7.), p. 7 et 8)
Il est vrai que l’eau recouvre 70% de la SURFACE terrestre. Il est vrai aussi que le corps humain contient (en MASSE ou en VOLUME) environ 70% d’eau. D’une part, relier ces deux vérités n’est faire qu’une ANALOGIE, mais pas une relation de CAUSALITÉ. D’autre part, deux pourcentages similaires ne signifie rien quand les mesures concernent deux grandeurs physiques différentes : une surface n’est pas une masse ni un volume. Utiliser une telle analogie, c’est de la numérologie, non ? En effet. Quelle heure est-il ? Deux kilomètres !
Je cite encore Emoto : «D’après les cristaux, l’eau qui est en nous contient l’énergie des mots.» (du même ouvrage).
Quels cristaux ? Le chlorure de sodium de l’eau de mer ? Les sels de la composition minérale du sang humain ? L’énergie, ah ! ce terme abstrait désignant une réalité bien abstraite et quantifiable en science n’a pas d’équivalent sérieux avec l’énergie chez le domaine de la spiritualité. L’énergie des mots ? L’aptitude au langage provient d’une zone spécifique du cerveau, à peu près au sommet du crâne. Les neurosciences montrent que ce sont les neurotransmetteurs (dopamine, mélatonine, et autres) qui sont le siège de l’activité neuronale. Mais de l’énergie des mots dans l’eau, ça veut dire quoi ? C’est une métaphore ratée ? Ou une extase mystique ? Je ne trouve pas ça très rassurant… D’ailleurs, le titre «Le miracle de l’eau» ressemble à de la science-spectacle. Je pressens d’autres textes construits selon une interprétation personnelle et subjective.
Dans le jargon scientifique, chaque mot, chaque phrase, a un sens bien précis. Mais quand un texte est flou, abscons, évasif, avec un sens indéfini, des mots qui ressemblent au jargon scientifique mais selon une structure inhabituelle, alors il y a quelque chose d’anormal.
Par curiosité, je visite la biographie de Emoto (http://fr.wikipedia.org/wiki/Masaru_Emoto) sur Wikipedia, dont je cite : «Des scientifiques critiquent les procédures expérimentales pour leur insuffisance2 et estiment qu’il existe de nombreux biais cognitifs dans les expériences d’Emoto».  Je ne suis pas étonné. On voit ensuite que Emoto a pour spécialité la «médecine alternative». Ses écrits surfent sur un thème très proche de la fameuse (fumeuse) mémoire de l’eau (http://fr.wikipedia.org/wiki/M%C3%A9moire_de_l%27eau) qui servit à servir d’alibi bidon à la pseudo-science homéopathique. De plus, la référence aux cristaux (quand cela ne concerne pas la minéralogie ni la cristallographie), c’est un thème irrationnel très prisé par la mouvance New Age… La page d’Emoto sur Wikipedia est classée dans la catégorie « pseudo-science ».
Ce que font les chercheurs indépendants et controversés est critiquable, certes. Mais la question essentielle est la suivante : pourquoi Wikiquote réunit-il dans sa catégorie «Scientifiques» des auteurs discutables et ayant peu publié dans des referres (Garrett Lisi, Emoto…) par rapport à des scientifiques notables par leurs travaux majeurs (Albert Einstein, Schrödinger, Max Planck, Henri Poincaré…) qui ne sont même pas recensés dans ladite catégorie ? De plus, dans la catégorie, on trouve d’autres scientifiques discutables (exemple : M. Fleischmann, co-«découvreur» de la FUSION FROIDE, «théorie» du type « fringe science », à la frontière de la pseudo-science ou de la science fictive). Il va falloir penser sérieusement à rééditer la catégorie des scientifiques chez Wikiquotes.
James Randi, le fondateur de la James Randi Educational Foundation, a publiquement proposé d’offrir à Emoto la somme d’un million de dollars s’il pouvait reproduire les résultats de ses expériences selon la procédure en double aveugle. Les travaux d’Emoto n’ont jamais été publiés dans une revue scientifique à comité de lecture.
Pour se proclamer scientifique, il faut respecter les critères de la méthode scientifique, que l’on fasse une découverte ou pas.
Sans esprit critique, les lecteurs gobent n’importe quoi. Jusqu’où peut-on croire ?
Il faut veiller et rester vigilant sur le risque de dénaturation de la méthode scientifique. Des épistémologies alternatives peuvent conduire à des dérives idéologiques. Les matheux platoniciens peuvent par exemple réécrire la physique en choisissant esthétiquement et subjectivement des polyèdres comme base de toute doctrine… Pire encore, les créationnistes pourraient réécrire la science pour légitimer leurs doctrines et tenter de lancer un renouveau religieux face à la montée de l’athéisme depuis le XXe siècle. La secte New Age, elle, peut s’immiscer et se glisser dans les institutions scientifiques pour semer la confusion et l’amalgame, en professant une doctrine qui mêle la physique quantique et le mysticisme syncrétiste. (voir ici : https://jpcmanson.wordpress.com/2013/01/28/le-vrai-visage-du-new-age-ou-nouvel-age/ et là aussi : https://jpcmanson.wordpress.com/2011/12/04/larnaque-de-lusurpation-de-la-physique-quantique/ puis là : https://jpcmanson.wordpress.com/2011/12/03/la-physique-quantique-usurpee/ et surtout ça : https://jpcmanson.wordpress.com/2013/01/08/retour-sur-le-mysticisme-quantique/)

L’important n’est pas les réponses de la science, mais de se poser de bonnes questions.

Des questions fondamentales.
Par exemple :
  • Peut-on prouver si un test de QI est faux ? Si la question se pose pour la première fois, alors le QI n’a jamais suivi les critères de la méthode scientifique.
  • Peut-on prouver si les interprétations des psychanalystes sont fausses ? S’il n’est pas du tout possible de concevoir une expérience pouvant invalider une théorie si celle-ci est fausse, alors ladite théorie est une pseudo-science.
Le talent pour les maths et les sciences, c’est autant dans la sueur que le plaisir. Rien ne tombe tout seul du ciel. Rien n’est acquis si on ne fait rien.
Le professionnalisme dans les sciences, c’est dans la rigueur par rapport à la méthode scientifique, par le devoir de rester objectif et critique. L’imposture du mysticisme et des pseudo-sciences, tout comme les fraudes scientifiques, ça n’a pas sa place dans les sciences. Le plus incompréhensible n’est pas le comportement scandaleux des fautifs, mais l’indifférence des scientifiques qui sont intègres et qui sont trop occupés pour constater une certaine montée d’obscurantisme.
J’ai vu des choses atterrantes, affligeantes, sur la progression de la secte New Age dont les meneurs ont parfois jadis été scientifiques ou qui dénaturent eux-même la science… Par exemple, une médecin russe diplômée en Suisse est devenue bionutritionniste (grâce à «l’infini quantique»), un conférencier complice est prof des universités (spécialité cancérologie), puis un autre docteur russe spécialisé en «biophysique» a participé au magazine douteux « Science et Inexpliqué », ensuite un philosophe hongrois influent est un adepte du concept New Age des annales akashiques… Alors, pour être bref, le New Age envahit les milieux médicaux, universitaires et gagne même aussi les ingénieurs. C’est alarmant. Irions-nous jusqu’à voir, impuissants ou lâches, au remplacement progressif de la méthode scientifique par des idéologies mystiques ? Des croyances personnelles doivent rester privées et ne pas interférer avec les métiers scientifiques. De plus, je ne connais aucun scientifique assez crédule pour croire lui-même avec sincérité au mysticisme, enfin je ne suis pas sûr là-dessus… Pourquoi rester indifférents face à ces dérives ? Le problème est très sous-estimé, à mon avis. C’est grave.
À travers la vulgarisation scientifique et la naissance des vocations scientifiques, la première chose à enseigner est la définition de la science (qu’est-ce que la science ?), les critères épistémologiques de scientificité, et les détails de la méthode scientifique. Pour anecdote, au collège et au lycée, on m’a appris les sciences avant même les définitions fondamentales. Ce n’est qu’avec la documentation hors scolarité que je me suis aperçu qu’il existait une grave lacune dans l’enseignement des sciences. C’est cette lacune qui m’a incité à créer mon blog en 2007, parce qu’il faut réparer ce problème.   https://jpcmanson.wordpress.com/2011/12/03/definition-de-la-science/
© 2013 John Philip C. Manson

Expérience statistique sur 9 tests de QI

  • J’ai réalisé une expérience de statistiques en psychométrie sur moi-même. J’ai ainsi trouvé un site de tests de QI à peu près aussi «fiable» que les tests faits par les professionnels. Vers 1998, je savais déjà que mon QI est entre 120 et 132.

Tout d’abord, je précise que je suis sceptique et critique à l’égard du concept de QI. J’avais déjà rédigé des articles à ce sujet : https://jpcmanson.wordpress.com/2012/04/16/la-mystification-du-qi-et-le-mythe-du-genie/ https://jpcmanson.wordpress.com/2011/12/05/le-qi-un-produit-marketing/ https://jpcmanson.wordpress.com/2011/12/03/au-fond-quest-ce-que-le-qi/

Dans mon expérience, j’ai pris comme hypothèse de départ que le QI n’est pas scientifiquement valide du fait qu’il ne prend pas en compte une marge d’incertitude. Déjà, du point de vue réfutabilité poppérienne, la question est : «peut-on prouver qu’un test de QI est faux si celui-ci est faux en soi ?».

  • J’ai fait 9 tests de QI, chacun étant composé de 30 questions.

Mon pire score est de 103, mon meilleur score est de 143. Déjà, là, l’écart est important. Cela fait une moyenne de 123 plus ou moins 20 points d’incertitude, soit 32,5% de marge d’erreur sur la valeur moyenne.

  • Voici la liste des scores de chacun des 9 tests : 119 ; 135 ; 131 ; 131 ; 103 ; 131 ; 119 ; 119 ; 143.

En faisant la moyenne sur les scores les plus fréquents (119 et 131), ça correspond à une moyenne de 125 plus ou moins 6 points, soit une marge d’erreur de 9,6%.

La moyenne globale des 9 tests est de 126 (assortie d’une erreur d’environ 36%).

D’un test à l’autre on n’obtient jamais le même résultat, malgré que certains scores réapparaissent trois fois (le 119 et le 131). Qu’est-ce qui compte finalement ? La moyenne de tous les tests, ou le meilleur score, ou le pire score ? Pourquoi les tests ne prendraient-ils pas compte de la marge d’incertitude comme cela se fait dans les sciences comme la physique ?

Selon moi, le QI n’est qu’un indicateur approximatif, il dépend même de l’âge (lequel avait été pris en compte lors des tests), et il ne prétend pas mesurer quantitativement l’intelligence selon des critères objectifs.

En outre, d’après les meilleurs résultats (supérieurs à 130, ce qui concerne 5 tests sur 9), je serais a priori surdoué (avec une probabilité de 56% si on tient compte de l’incertitude, je précise). Donc un test isolé de QI ne prouve rien. Et un ensemble de tests de QI dont on fait la moyenne des résultats, ça laisse planer un doute.
C’est un peu comme jouer à pile ou face : soit on est tout con, soit on est fûté. Bref, je doute de la scientificité des tests de QI : les scores auraient dû donner une moyenne avec une marge d’erreur de 1% à 3% maximum, mais pas 10% ni 36%…

Mais ce n’est pas fini. J’ai tenté de voir s’il existait un lien entre le QI et le nombre de bonnes réponses par rapport aux 30 questions par test. Ce calcul ne vaut que pour le site web sur lequel j’ai passé les 9 tests.

Voici la liste des 9 tests, avec le QI et le nombre de bonnes réponses sur 30 :

  1. 119 : 21 bonnes réponses
  2. 135 : 25
  3. 131 : 24
  4. 131 : 24
  5. 103 : 17
  6. 131 : 24
  7. 119 : 21
  8. 119 : 21
  9. 143 : 27

Un aperçu de mon meilleur score : Bof, cela a dû prendre aussi en compte mon immense connerie.

Oui, il existe un lien entre le QI et le nombre de bonnes réponses sur 30 questions. J’ai remarqué que le QI est proportionnel au nombre de bonnes réponses.

Ainsi, le score S est proportionnel au QI, selon cette égalité :     S = (QI – 35)/4

Et par conséquent, le QI s’exprime linéairement en fonction du nombre de bonnes réponses :     QI = 4S + 35.

Remarques sur cette équation :

  • Si on a tout faux dans un test de 30 questions, avec 100% de mauvaises réponses, alors le QI est de 35, il n’est pas nul.
  • Cependant, si toutes les réponses sont bonnes, soit 100% de bonnes réponses, alors le QI est de 155 maximum.

Il existe toutefois un biais dans chaque test : il est possible de donner une réponse au hasard. Ainsi, lorsqu’on a le choix entre 4 réponses possibles pour chacune des 30 questions, on a donc une probabilité de 1/4 de trouver la bonne réponse au hasard à chacune des 30 questions.  Ce qui fait a priori une quantité de 7,5 bonnes réponses trouvées pour avoir répondu absolument au hasard, indépendamment de tout raisonnement. Par conséquent, cocher les réponses au hasard dans un test de QI de ce genre, cela crée un biais conduisant à un QI faux de 4×7,5 + 35 = 65. En conclusion : si on échoue totalement au test de QI en répondant «je ne sais pas» à chacune des 30 questions, le QI est de 35 ; et le QI atteint 65 si on répond complètement au hasard ; cela veut dire que si quelqu’un obtient un résultat de QI supérieur à 65 dans un test, ça voudra dire qu’il n’y a pas répondu au hasard, et qu’il a forcément réfléchi (de son mieux) en répondant aux questions.

Réédition du 18 janvier 2014 :

  • Répondre à une question au hasard a une probabilité de 1/4. Or, pour appliquer un calcul de probabilité sur le nombre de questions répondues correctement sur 30 questions, il faut utiliser la loi binomiale. Ainsi, pour réussir 30 questions sur 30, la probabilité d’avoir fortuitement un QI de 155 est de 1 sur 1,15 milliard de milliards. Ensuite, la probabilité d’échouer lamentablement à toutes les 30 questions au hasard est de 1 sur 5600 environ (on a donc une chance sur 5600 de se faire attribuer un QI catastrophique de 35 si on effectue le test de 30 questions au hasard. La probabilité pour répondre juste à 15 des 30 questions sera d’une chance sur 518, ce qui fait se voir attribuer un QI de 95 qui est avantageusement proche du QI moyen de 100. On a la probabilité optimum de 1/6 de réussir au hasard 7 questions sur 30 pour obtenir un QI critique de 63, c’est l’événement le plus probable. C’est un fait : le hasard peut conduire à un biais statistique !

Conclusion générale : étant donné mes 9 résultats, l’incertitude fait que je ne connais pas vraiment mon QI. Je suis au-dessus de la moyenne, mais on ne peut pas être vraiment précis sur le positionnement.

Quelques heures plus tard, j’ai essayé le test préliminaire de 40 questions sur le site de Mensa France. J’ai obtenu un score de 30 bonnes réponses sur 40, je pense que cela correspond à un QI de 125. En examinant le corrigé, j’aurais même pu obtenir une bonne réponse de plus si j’avais fait gaffe à un cheveu près, ce qui aurait fait a priori un QI de 128.

Je pense que d’un test à l’autre il y a des divergences dans les résultats, le QI n’est jamais autour d’un degré restreint d’incertitude, même dans les mêmes types de tests. Je soupçonnais une assez grande marge d’incertitude sur le degré de QI mesuré, et maintenant j’en suis convaincu.

Autre chose : je n’ai jamais considéré les meilleurs QI comme «supérieurs», je n’aime pas ce mot. Ils sont différents, ils fonctionnent différemment, oui, mais pas supérieurs. Même le mot «surdoué» évoque la supériorité… Il n’y a pas vraiment de don ou de surdon, puisque cela n’est jamais synonyme de réussite ou d’adaptation. Ce qui signifie qu’il existe trop souvent des situations autant risibles que génératrices de souffrance : l’enseignement est souvent inadapté parce qu’il croit que toute le monde fonctionne pareil, beaucoup de parents s’estiment «parents de surdoués» quand ce n’est pas vraiment le cas (ils accusent l’école sans se remettre en question eux-mêmes), tandis que les (vrais) «surdoués» qui existent dans l’ombre sont incompris par tout le monde (par l’école, au boulot et aussi par leur famille, d’où une profonde solitude dont on finit par s’habituer).

À travers mes observations, c’est que les «doués» semblent très bien armés en logique, en maths et autres aptitudes connexes que le reste de la population, mais ils restent souvent inadaptés et démunis en société. Tandis qu’une grande majorité de la population sait gérer les relations sociales, les gens ne sont pas trop adeptes de la logique et des maths. Bref dans l’ensemble il y a comme une forme d’équilibre entre les atouts et les handicaps. D’où l’absurdité de superlatifs comme le mot «supérieur» et le mot «inférieur», c’est ridicule. Chaque humain est toujours bon à quelque chose. Mais ceux au-dessus de la «norme» ont-il rendu le monde meilleur ? Tout est vain. Même avec les efforts des sceptiques les mieux organisés, il existera toujours de l’obscurantisme et de la crédulité chez les autres, il restera des cinglés qui croiront encore à la fin du monde, qui attendent les extraterrestres et qui croiront encore à l’avènement d’un monde idéal, idyllique et parfait…

Être intelligent, finalement, ça ne sert à rien. Des efforts foutus en l’air, par exemple quand des fêlés récupèrent la physique quantique (la théorie fut mise au point par des scientifiques brillants) pour la sortir de son contexte pour bricoler une sorte de connerie mystique complètement inepte : le mysticisme quantique. La préhistoire est un éternel recommencement… La science a succédé à des millénaires d’obscurantisme et de superstitions, et quelques siècles de science sont en train d’être saccagés et déformés par les pseudo-sciences et les sectes, un grand retour de l’obscurantisme. Quelle honte.

Je ne crois pas à l’intelligence humaine. Je crois à l’existence de la connerie humaine.

© 2012 John Philip C. Manson

Ajout du 18 avril 2013 :

En reprenant les scores de QI : 119,135,131,131,103,131,119,119,143 ; j’ai un complément sur les statistiques à raconter.

  • Moyenne des scores : QI = 125,67
  • Médiane : QI = 131
  • Mode :  QI = 119 ou 131 (incertitude entre l’une et l’autre)
  • Écart-type empirique :  11,16 (en théorie, ce nombre est égal à 15, ce qu’on trouverait avec un plus grand nombre de tests effectués)
  • Variance :  124,44

Résultat :

  • il y a 68,2% de probabilité que mon QI soit compris entre 115 et 137.
  • la marge d’incertitude de statistique empirique de mon QI est d’environ 17,5%.
  • Comme il n’y a que 9 tests effectués, les résultats sont insuffisants, on aura de meilleurs conclusions avec un plus grand nombre de tests (il faudrait au moins 100 tests pour avoir des résultats statistiques significatifs, mais j’ai franchement mieux à faire que faire des tests de QI…)

Mise à jour du 18 janvier 2014 :

  • L’écart-type (qui vaut 11,16) a été calculé à partir du neuvième de la somme des carrés des différences entre chaque QI donné d’avec le QI moyen.
  • Cet écart-type de 11,16 est très proche de la racine carrée du QI moyen de 125,67 qui est un écart-type (de valeur 11,21) typique de la loi de Gauss et de la loi de Poisson. En effet, dans la loi de Poisson, mon QI moyen (125,67) dans le cas du calcul de probabilité de mon QI correspond au carré de l’écart-type. Voir ici : http://fr.wikipedia.org/wiki/Loi_de_poisson
  • Conclusions complémentaires : j’ai une probabilité de 98,67% d’avoir un QI supérieur à 100, et j’ai une probabilité de 37,3% d’avoir un QI supérieur à 130, et j’ai une probabilité de 71,9% d’avoir un QI supérieur à 120, puis une probabilité de 55,32% d’avoir un QI supérieur à 125.
  • Conclusion générale actuelle : si le QI de l’ensemble de la population est calibré à une moyenne de 100, je dois préciser que chaque QI individuel (le vôtre, le mien…) comporte une marge d’incertitude. Un QI individuel n’est pas fixé selon une valeur entière précise (126 dans mon cas). Ainsi, dans mon cas, j’ai 69,52% de chance d’avoir un QI compris entre 115 et 137, on ne peut pas dire avec certitude si mon QI de 126 est réellement de 126. Les tests de QI ne sont pas un dogme ni un outil absolu. Ils ne sont qu’un indicateur avec les nuances qu’il comporte. Ainsi, j’ai une probabilité d’environ 37,7% d’être « surdoué » (un surdoué par définition aurait un QI d’au moins 130). Puis de toute façon, je n’aime pas l’appellation « surdoué », cela donne une connotation d’élitisme (ce que je trouve stupide). Certains préfèrent l’appellation de « zèbre » pour désigner un « surdoué », moi-même je préfère le mot « cérébral » c’est plus simple… Zèbre, oui j’admets que c’est un surnom plus sympa.  « Hiii han !!! »    😉

 

Mise à jour du 13 juillet 2014 :  avec un intervalle de confiance de 95%, mon QI est compris entre 118 et 133.

 

© 2013 John Philip C. Manson

Confirmation expérimentale personnelle de la loi de Stefan-Boltzmann

Les 10 et 11 décembre 2011, j’ai personnellement pu réaliser des expériences afin d’évaluer la validité de la loi de Stefan-Boltzmann.

Liste du matériel nécessaire : une ampoule électrique à incandescence de 40 W, et un thermomètre à pointeur laser et capteur thermique (le mien est de marque Voltcraft IR-270L). L’ampoule doit néanmoins être faite en un verre translucide, donc sans opacité (un verre bien transparent laisse passer une majorité du rayonnement).

Lorsque l’ampoule est allumée depuis une durée suffisante pour que la température de sa paroi extérieure soit maximale, j’ai opéré sur une ampoule allumée depuis environ une durée de 6 heures.

  • Plusieurs mesures avec le thermomètre ont établi que la surface en verre a une température maximum de l’ordre de 191°C.

La température absolue T et la puissance électrique P de l’ampoule sont reliées entre elles par l’équation suivante :

T⁴ = P / (2 × S × s)

où S /2 est la demie-surface de la paroi de verre à travers laquelle le rayonnement est émis

et s = 0,0000000567 W/(m².K⁴), constante de Stefan-Boltzmann.

L’équation indique que pour P = 40 W une température de 184,4°C (T = 457,55 K), ce qui est proche de 191°C.

Satisfait du résultat, j’ai reproduit l’expérience cette fois sur le tube à néon de ma cuisine (tube en forme de cylindre refermé sur lui-même, donc une forme de tore). La température de surface du tube torique est de 33°C (soit T = 306,15 K), et le calcul indique que le néon aurait une puissance de 88,46 W (plus tard, une inscription derrière le tube indique une puissance de 80 W, ce qui est proche du calcul).

Les ampoules à incandescence ont une durée de vie de 1000 heures, ainsi une ampoule de 40 W qui dure 1000 heures a pu donc tout au long de sa vie faire circuler une puissance électrique de 40 kWh. Concernant les ampoules à basse consommation, elles éclairent beaucoup moins fort, mais ces ampoules ne sont pas éternelles (je vous laisse imaginer le travail de traitement de ces ampoules «écolos» sachant qu’elles contiennent du mercure toxique)…

Les tubes à néon fonctionnent sans filament, avec un starter et deux électrodes dans un tube rempli d’un gaz inerte. Un tube à néon, voila quelque chose d’économique et qui éclaire suffisamment et qui est durable : le tube à néon de ma cuisine, je l’ai depuis août 2003 (il y a déjà 8 ans et 4 mois) et il est toujours en excellent état. Mieux que les ampoules basse consommation achetées tous les 3 mois…

Complément d’information :

  • Dans un espace d’environ 7 cm autour de la surface d’une ampoule électrique (en forme de flamme de verre translucide) de 40 W, l’air est a priori parfaitement stérile lorsque le verre de l’ampoule a atteint sa température maximum (191°C sur le verre, et 100°C à 7 cm de la surface). À 1 mm du filament de tungstène, la température serait voisine de 1520°C (théoriquement).
  • L’expérience de mesure de la puissance du rayonnement optique a été reproduite avec une simple bougie de paraffine : la température est de l’ordre de 155°C à 2 cm de la base de la partie bleutée de la flamme, et de plus de 80°C à propos de la partie supérieure de la flamme jaune. L’expérience avec une bougie a montré que celle-ci a une puissance comprise entre 8,5 et 18,3 W. À noter que la puissance d’une bougie varie beaucoup selon les modèles utilisés : la puissance de la flamme est proportionnelle à la surface de la flamme et proportionnelle selon la puissance quatrième de sa température absolue.

© 2011 John Philip C. Manson

Des sacs écologiques en amidon ou en cellulose ?

Je découvre par hasard l’existence de sacs en plastique fabriqués à partir d’amidon de maïs, définis comme étant biodégradables à 100% et compostables à 100% par une décomposition physique sans risque toxique pour l’environnement…

En examinant l’un de ces sacs, je trouve que ça brille comme du plastique ordinaire. Quand on étire le sac, c’est souple comme du plastique, sans se déchirer.

Dans le doute, alors il existe différentes façons de détecter la présence d’amidon et de cellulose, ou la présence de polyéthylène.

 

Voici une série de tests à réaliser afin d’avoir des conclusions expérimentales claires :

 

  • On fait chauffer de l’eau de façon à ce que la température soit entre 80 et 100°C. Si le sac se ramollit et fond dans l’eau chaude, alors c’est un matériau thermoplastique (donc un polymère comme le polyéthylène).
  • On immerge le sac dans du suc gastrique qui est très acide, en présence d’enzymes, et le suc gastrique doit au départ être exempt de sucres, et on attend quelques heures, ensuite on prélève du suc gastrique et on fait le test de la réaction de Fehling (voir ici aussi) et si le test révèle la présence de sucres, alors le sac contient de la cellulose ou de l’amidon. Mais si le sac est un polymère plastique issu du pétrole, le test reste négatif.
  • On met un morceau du sac dans la liqueur de Schweitzer et si le sac y est dissout, alors il contient de la cellulose ou de l’amidon, sinon c’est du plastique ordinaire.
  • Autre test, le plus compliqué à mettre en oeuvre : l’analyse chimique quantitative par mesure des gaz issus de la combustion du sac. On consume une masse connue du sac (combustion totale) et on récupère les gaz (toujours CO2 et H2O). Selon les volumes respectifs du dioxyde de carbone et de la vapeur d’eau, on peut reconstituer par calcul la formule brute de la molécule générale du sac, et ainsi distinguer le polyéthylène de la cellulose. Pour information, la cellulose et l’amidon sont des polymères naturels du D-glucose. Informations quantitatives : la combustion complète du polyéthylène produit un volume de vapeur d’eau pour 2 volumes de CO2, c’est-à-dire que pour 18 g d’eau produite il y a 88 g de CO2 dégagé lors de cette combustion ; et la combustion complète de l’amidon ou de la cellulose donne des proportions gazeuses différentes : il se produit des volumes gazeux équivalents (1 volume de vapeur d’eau pour 1 volume de CO2), soit pour 18 g d’eau produite il se dégage 44 g de CO2. Mais si le sac contenait à la fois du polyéthylène et de l’amidon, on obtient des proportions gazeuses intermédiaires.

 

 

 

Je vous laisse seuls juges des conclusions à dire sur les résultats expérimentaux que certains d’entre vous réaliseront, je n’entrerai pas dans une polémique, je préfère que les faits eux-mêmes convainquent plutôt que ce soit moi qui affirme. La science ne consiste pas à affirmer comme les écolos, mais à encourager la réalisation d’expériences scientifiques pour confirmer ou réfuter.

Ce lien intéressant montre les effets des sacs dits biodégradables : http://www.linternaute.com/nature-animaux/magazine/10-idees-recues-sur-l-ecologie/les-sacs-biodegradables-sont-sans-danger-pour-l-environnement.shtml

 

Rien que le mot «polyéthylène biodégradable» constitue un oxymore…

 

© 2011 John Philip C. Manson

Des neutrinos plus rapides que la lumière ?

Des neutrinos plus rapides que la lumière ?

En ce qui concernent les neutrinos qui iraient plus vite que la vitesse de la lumière, je suis sceptique envers le sensationnalisme complaisant qui ose remettre en doute Einstein aussi facilement. Il s’agit d’une seule expérience qui demande confirmations (au pluriel), et cela est publié seulement sur ArXiV.org (en prépublication AVANT validation). Plutôt que d’imaginer avec insolence que les neutrinos révolutionnent la physique, pourquoi n’émet-on pas l’hypothèse crédible suivante : “il est possible qu’il y ait une erreur sur la mesure, et de plus, quelle est la marge d’incertitude sur la mesure ?” Si la valeur de la vitesse mesurée est comprise dans cette marge d’incertitude, l’expérience des neutrinos ne prouve absolument rien. J’aimerais avoir sous les yeux quelques données quantitatives avec leur incertitude relative. Pourquoi les journalistes ne parlent pas de cette marge d’incertitude qui a pourtant autant d’importance que la valeur mesurée elle-même ? La vitesse des neutrinos serait de 7388 m/s de plus que la célérité définie en 1983, ce qui correspond à un excès de 0,246%, ainsi si la marge d’erreur est supérieure à cet excès, l’expérience est nulle.

Donc attendons de voir les futures mesures…

Ce n’est pas la vitesse des neutrinos qu’ils ont mesuré, mais les 60 nanosecondes d’avance sur leur trajectoire… Il suffit qu’il y ait un mini-séisme pour fausser la mesure, donc si ça s’est fait au CERN, c’est pas loin de la Suisse, pas loin des Alpes = région sismique.

De plus, je croyais que les neutrinos interagissaient très peu avec la matière ? Ainsi comment sont-ils observables ?

Toute théorie scientifique est vouée à être dépassée. C’est la règle. Il faut accepter qu’il y a PEUT-ÊTRE quelque chose qui se joue, là. Toute théorie scientifique est réfutable, mais il faut des preuves en béton. J’admets l’hypothèse que ce soit une erreur. Les journalistes évoquent la valeur de la vitesse sans même parler de la marge d’erreur… Si le CNRS présume que c’est une découverte crédible, ça voudrait dire que la valeur mesurée est en dehors de la marge d’incertitude sur la mesure, mais ça, on doit justement le vérifier.

Les résultats reposent sur l’observation de 15000 neutrinos, ce qui est bien peu pour faire valoir significativement une découverte. En supposant que la découverte soit une réalité, ça veut dire que lorsqu’une supernova explose, les neutrinos précèdent la lumière de l’explosion, n’y a t-il pas le risque de léger paradoxe temporel ?

Apparemment, la longueur du tunnel est de 730 km avec 20 cm d’incertitude. Ce qui fait donc 0,0000274% d’incertitude sur la distance. Concernant le chronomètre, on peut admettre que la mesure du temps est précise. Les photons normaux doivent avoir un temps de parcours égal à t = 0,00243501789 ± 0,000000000667 seconde. Or justement, les neutrinos parcourent la distance avec un temps valant t – 0,00000006 seconde, soit 100 fois la marge d’erreur sur le temps. Ainsi, en effet, les résultats doivent être mieux analysés pour confirmer la découverte, ou l’infirmer en trouvant l’erreur expérimentale. On n’est jamais à l’abri d’une erreur. Mieux vaudrait attendre la confirmation par de nouvelles expériences plutôt que s’enthousiasmer dès la première mesure effectuée.

En conclusion : il semblerait que nous soyons en présence d’une découverte crédible et plausible, étant donné que la valeur mesurée vaut environ 100 fois la marge d’erreur. Mais le nombre restreint de neutrinos ne peut pas permettre une conclusion claire. Il faut poursuivre les recherches. Cependant, s’il y a un point à critiquer avec fermeté, c’est la prose des journalistes qui proclame qu’Einstein est dépassé et que sa théorie de la relativité est fausse. Et ça, c’est complètement atterrant. Des neutrinos a priori plus rapides n’abolissent pas la théorie d’Einstein, ils la complètent, tout comme la théorie de la relativité est une complétude de la théorie de la gravitation de Newton. La célérité de la lumière est toujours de 299 792 458 m/s, bien que les neutrinos pourraient être peut-être plus rapides. Si la découverte est confirmée, la relativité n’est pas jetée à la corbeille, on ne fait qu’y écrire un nouveau chapitre. Mieux vaudrait laisser la science entre les mains des journalistes scientifiques qui connaissent et maîtrisent le sujet, car souvent on peut lire des âneries d’amateurs sur le web (l’effet bac L). Concernant le communiqué du CNRS, j’ai trouvé que c’était bien expliqué et je suis satisfait des détails donnés, contrairement à la presse grand public qui galvaude la science sans réellement rien expliquer.

Réflexion sur la problématique des neutrinos et le vide quantique :

Je viens d’imaginer une hypothèse qui explique pourquoi les neutrinos iraient légèrement plus vite que la lumière. La lumière est absorbable et déviable par la matière, ce qui fait que le vide quantique lui-même n’est pas parfaitement vide (il contient une quantité non nulle d’énergie), d’où une réfraction possible d’après laquelle l’indice de réfraction vaut n = c/(c + Δc) où Δc = 7388 m/s. Les neutrinos, quant à eux, interagissent peu avec la matière, et donc ne peuvent pas (ou moins) être déviés ni absorbés par la matière selon un phénomène de réfraction, ce qui expliquerait pourquoi ils se propageraient plus vite que ‘c’. Le vide quantique apparaît comme un milieu d’un vide très poussé mais pas absolu, et dans lequel la célérité de la lumière n’est pas tout-à-fait proprement une célérité réellement dans le vide. Ainsi, selon mon hypothèse, le vide quantique ordinaire a un indice de réfraction égal à 1, mais le vide dit parfait qui correspond au milieu apparent des neutrinos (car peu d’interaction avec la matière) a un indice de réfraction égal à 0,999975357. Il s’agit de la loi d’optique de Descartes. Un truc me chagrine : sachant que les neutrinos vont plus vite que ‘c’, pourquoi n’observe t-on a priori pas d’effet Tcherenkov ?

La nature du neutrino pose problème : l’expérience concerne quel type de neutrino ? Électronique, muonique, tauïque ? De plus, un neutrino est bien une particule fermionique, ce n’est donc pas un boson comme le photon, une onde. Le neutrino c’est de la matière dotée d’une masse, et ça, ça pose un très gros problème avec la théorie de la relativité si effectivement le neutrino va plus vite que ‘c’

Preuve de la faible interaction des neutrinos avec la matière : “Sur 10 milliards de neutrinos de 1 Mev qui traversent la Terre, un seul va interagir avec les atomes constituant la Terre. Il faudrait une épaisseur d’une année-lumière de plomb pour arrêter la moitié des neutrinos de passage”.

Si la découverte est authentifiée, alors c’est un grand pas scientifique.

En lisant l’article situé ici : http://www.20minutes.fr/article/793332/theorie-relativite-remise-question  je relève que les chiffres mentionnés contredisent ceux du communiqué détaillé du CNRS ici : http://www2.cnrs.fr/presse/communique/2289.htm. En effet, 60 nanosecondes d’avance, selon le CNRS, ça correspond à un excès de vitesse de 7388 mètres par seconde (7,4 km/s environ), mais la presse de “20 minutes” préfère se baser sur une célérité photonique de 300 000 000 m/s (valeur arrondie) alors que la célérité vaut exactement 299792458 m/s. La presse annonce une vitesse de 300 006 000 m/s pour les neutrinos alors que la valeur initiale de ‘c’ utilisée par la presse est incorrecte.

Sachant que la distance parcourue est de 730 km avec une marge d’erreur de 20 cm, le temps de parcours des photons est exactement de 0,00243501785 seconde avec une marge d’erreur de plus ou moins 0,65 nanoseconde. Et comme les neutrinos arrivent 60 nanosecondes à l’avance, la célérité de ceux-ci est donc de 299799850 m/s au lieu de 299792458 m/s, ce qui fait une différence de vitesse d’exactement 7392 m/s, soit 7,4 km/s. Ceux qui affirment que la différence de vitesse est 214 km/s, désolé c’est faux. Et concernant la vitesse de 300 006 km/s, c’est faux aussi.

Ce que je voudrais ajouter comme hypothèses concernant les possibles biais expérimentaux pouvant donner une interprétation erronée des résultats, j’ai pensé à ces exemples : séismes, dérive continentale, effet relativiste de la gravitation terrestre sur le temps, mais j’ai retenu surtout l’hypothèse de la dilatation thermique linéaire du tunnel de 730 km. En effet, pour un matériau comme l’acier, le coefficient de dilatation thermique linéaire est 12*10^-6, et pour une longueur de 730 km, il ne suffit que d’une augmentation de température de 2°C environ pour que le tunnel s’allonge d’environ 18 mètres supplémentaires (de quoi fausser les mesures sur les neutrinos). Intéressant, non ?

L’hypothèse de la dilatation thermique est rejetée par moi-même : il n’y a pas de tunnel qui ait été utilisé, les neutrinos ont traversé les montagnes à travers la Terre comme des particules fantomatiques.

À part les biais cognitifs, j’ai une application intéressante au cas où la découverte du CNRS est confirmée.Les neutrinos précèdent la lumière, et ça, c’est le détail fondamental pour ce que je vais raconter. Une vitesse différentielle, voila un moyen d’étalonner les distances astronomiques entre la Terre et les supernovae : la mesure du temps entre la réception des neutrinos et la réception des photons en provenance des supernovae déterminent avec précision leur distance ! La durée écoulée entre la capture des neutrinos puis celle des photons est proportionnelle à la distance, le temps de parcours des particules étant plus grand d’un facteur 40 556,339. Je vais étudier le cas de la supernova SN 1987 A et je reviendrai rendre ma conclusion. Voila, me revoici, les neutrinos ont précédé de 3 heures environ le fameux bang lumineux de SN 1987 A. Le rapport des temps entre 3 heures et 60 nanosecondes est égal au rapport de la distance recherché et les 730 km racontés plus haut. Je trouve D = 13,89 années-lumière mais ça ne colle pas du tout avec les 168000 années-lumière de SN 1987 A… La trajectoire des neutrinos, est-ce une vitesse ou une accélération ou une décélération ? 

En prenant pour valide la distance de 168000 AL, et en considérant que les neutrinos supraluminiques (à célérité constante) soient une réalité, alors l’écart de temps entre le flux de neutrinos et le flux de photons aurait dû être de 4 ans et 51 jours. Les photons de SN 1987 A arrivèrent le 23 février 1987, ainsi mon calcul montre que le flux de neutrinos auraient pu éventuellement arriver aux environs du 3 janvier 1983 avec néanmoins une grande marge d’incertitude (plusieurs mois) qui interdit la moindre précision… Je postule que les différents types de neutrinos se propagent à des vitesses différentes les uns par rapport aux autres. Le cas de la supernova SN 1987 A contredit l’expérience récente sur les neutrinos supraluminiques. Attendons d’en savoir plus…

Addendum du 15 octobre 2011 :

http://www.gizmodo.fr/2011/10/15/les-neutrinos-nont-pas-depasse-la-vitesse-de-la-lumiere-explications.html

Selon un scientifique, l’erreur aurait été identifiée et les neutrinos n’iraient pas plus vite que la lumière. Réfutation en attente de confirmation. Finalement, mon hypothèse de départ (une erreur expérimentale) serait valide.

Si l’existence des neutrinos supraluminiques est a priori crédible, l’expérience demande confirmation, et des tests sont en préparation actuellement. La preuve que ce soit un fait n’a pas encore été établie. Il va falloir patienter un peu, quelques mois.

Je pense qu’il ne faut pas s’enthousiasmer trop vite. Il faut rester prudent. Une annonce extraordinaire exige toujours des preuves solides. Affaire à suivre…

© 2011 John Philip C. Manson