Silence, ça pousse !

Cette émission a pour thème le jardinage, et Stéphane Marie (l’un des animateurs) est un jardinier habile, compétent et expérimenté.

Mais quelque chose ne va pas…

Environ une vingtaine de minutes après le commencement de l’émission, des invités dans l’émission font la promotion de la florithérapie, et plus particulièrement le domaine des fleurs de Bach. Dans le contexte de l’émission, tout cela est présenté et expliqué par une pharmacienne, dans un environnement de laboratoire qui laisse d’abord penser à un aspect scientifique. Mais cela n’est qu’une regrettable apparence…

Concrètement, les fleurs de Bach sont une médecine parallèle qui n’a aucun fondement scientifique, bien que son inventeur, Edward Bach, était un authentique médecin. La florithérapie présente des similitudes avec l’homéopathie. Et comme l’homéopathie, les examens systématiques des essais cliniques de remèdes à base de fleurs de Bach n’ont pas montré d’effet au-delà du placebo…

Les fleurs de Bach sont de la pseudoscience.

Grosso modo, le docteur Bach a décidé ad hoc que la personnalité et les états émotionnels sont des critères préférables à ceux que sont la maladie et ses symptômes. Les élixirs floraux ont la prétention de stimuler la vitalité et d’harmoniser la vie psychique, en agissant sur les états émotionnels. Mais les effets des fleurs ont été « étudiés », ou plutôt élaborés de façon suggestive par Bach. Aucun protocole scientifique objectif derrière tout cela…

Triste de constater que les marchands de perlimpimpin viennent jusqu’à s’incruster dans les émissions TV sérieuses… Par exemple, on reste médusé quand un docteur en pharmacie affirme que « le Vercors est un haut lieu énergétique »… Un quelconque rapport avec le New Age ? Ou alors la radiesthésie ? Peut-être pas, mais c’est inquiétant comme discours, comme si la spiritualité se substituait à la science tout en se revêtant, l’air innocent, d’une caution scientifique que les fleurs de Bach n’ont pas !

Il faut distinguer ce qui relève du marketing, du commerce, et ce qui relève de la science…

Rien n’empêche d’essayer les fleurs de Bach, à condition de suivre un protocole expérimental capable d’évaluer objectivement l’efficacité d’une telle thérapie.

John Philip C. Manson

 

Cosmologie : contradiction dans un modèle cosmologique fractal

  • Hier soir, je découvre cette page : http://www.apmep.fr/spip.php?page=message&id_forum=4592 dans laquelle un modèle cosmologique est décrit avec peu d’informations détaillés (comme des démonstrations et des preuves empiriques), mais j’ai porté une lecture attentive.

L’auteur du texte présente un modèle d’univers à géométrie fractale, et prétend que deux univers apparurent (l’un formé de matière et l’autre d’antimatière). Là je ne peux rien réfuter, parce que c’est simplement invérifiable factuellement.

Ensuite, l’auteur introduit deux grandeurs :

  • D : la dimension fractale de l’« éponge de Menger-Sierpinski ».
  • BT : la borne de « Tsirelson ».

L’auteur affirme que ces deux grandeurs ont une valeur très proches.

Mais ensuite, l’auteur déclare qu’il s’agit de diffuser des informations mais pas des démonstrations. C’est curieux comme remarque. Diffuser des infos comme des faits, ou comme de simples hypothèses ? Une démonstration c’est abstrait, c’est propre aux mathématiques via lesquelles on démontre si des propriétés mathématiques sont vraies ou fausses, mais une démonstration se limite exclusivement aux maths, où l’aspect abstrait se distingue nettement de la physique qui, elle, exige des preuves. En cosmologie comme dans les sciences expérimentales, on ne démontre pas comme on le fait dans les maths pures, mais on prouve directement ou indirectement avec des expériences ou avec des observations.

Ensuite, l’auteur relie les grandeurs D et BT avec la température cosmologique. Là ça commence à devenir concret et intéressant. L’auteur déclare que la grandeur D est constante. Il affirme aussi qu’une troisième grandeur, notée K, est une constante.

Or l’auteur relie ces grandeurs comme suit :

  • Tuo = K * D = K * BT

Avec Tuo = 2,7 kelvins, la température cosmologique. Mathématiquement, lorsqu’on multiplie une constante par une autre constante, le résultat est une constante. Ainsi, la température de l’univers serait constante d’après ce modèle.

Pour ainsi dire, l’auteur déclare péremptoirement qu’il n’y aura pas de mort thermique prévisible pour notre Univers. Par conséquent, l’on comprend qu’il suggère donc que l’univers n’a pas été chaud jadis et qu’il ne se refroidit pas. Une température supposée constante, ça ne ressemble t-il pas à une caractéristique d’un univers stationnaire et donc sans Big Bang ?

L’auteur lâche une phrase étrange : « L’ Univers doit-il se plier à nos modèles ou nos modèles à l’Univers ? « 

Ne voudrait-il pas remettre en question les principes fondamentaux de la scientificité qui fonctionnent plutôt bien depuis Karl Popper ? On n’a de connaissance qu’à travers des expériences et des observations, c’est la base de la méthode scientifique. On construit des modèles mathématiques pour construire une représentation approximative du réel, les modèles devant être le plus fidèles aux faits observés ou expérimentés. Mais un modèle n’est pas censé remplacer les faits… Un modèle est censé représenter le plus fidèlement possible les faits tels qu’ils sont.

Les faits ne mentent pas (quand on limite au maximum les biais cognitifs). Mais des modèles peuvent se tromper. C’est là qu’intervient le critère épistémologique de réfutabilité.

Ainsi, comme on l’a vu, l’auteur déclare que la température cosmologique est constante, donc toujours à 2,7 kelvins, soit environ -270,45°C.

Mais comment est-il possible que l’univers ait toujours une température constante, alors que l’on a observé une preuve comme celle de la nucléosynthèse primordiale ? En effet, le modèle à température constante est incapable d’expliquer l’abondance d’isotopes datant du début de l’univers, isotopes ayant été produits par la fusion nucléaire de noyaux atomiques initialement plus légers.

Il y a 7,2 milliards d’années (donc 6,6 milliards d’années après le Big Bang), la température de l’univers était de 5,1 kelvins, au lieux des 2,7 kelvins actuels. On a la preuve que la température cosmologique n’est pas constante, les faits contredisent le modèle.

Les faits ont prévalence sur les hypothèses. On ne peux guère présenter des hypothèses comme des vérités en dépit de la contradiction due aux faits contre ces hypothèses. Lorsqu’une hypothèse est réfutée par une preuve empirique, l’hypothèse doit être modifiée ou abandonnée.

L’auteur a déclaré en conclusion que « nous pensons que cela pourrait représenter un grand chambardement dans nos croyances ». Je pense plutôt que c’est le modèle ici qui connaît un chambardement, car les faits semblent le réfuter. La théorie du Big Bang n’est pas un ensemble de croyances, le Big Bang est une théorie scientifique qui s’appuie sur plusieurs preuves.

Le modèle de l’auteur, basé sur un univers froid à température constante :

  • n’est pas capable d’expliquer l’abondance universelle de l’hélium, du lithium et du béryllium (qui sont des éléments produits lors de la nucléosynthèse primordiale).
  • n’a peut-être pas pensé que la formation des galaxies se passerait différemment dans un univers à température constante, par rapport à la formation de galaxies dans un univers jadis très chaud et dont la température décroît.
  • le modèle explique t-il le red-shift (le décalage vers le rouge, dû à l’effet Doppler) ?
  • En décembre 2000, Raghunathan Srianand, Patrick Petitjean et Cédric Ledoux ont mesuré la température du fond diffus cosmologique baignant un nuage interstellaire dont ils ont observé l’absorption du rayonnement émis par le quasar d’arrière plan PKS 1232+0815, situé à un décalage vers le rouge de 2,57. L’étude du spectre d’absorption permet de déduire la composition chimique du nuage, mais aussi sa température si l’on peut détecter les raies correspondant à des transitions entre différents niveaux excités de divers atomes ou ions présents dans le nuage (dans le cas présent, du carbone neutre). La principale difficulté dans une telle analyse est d’arriver à séparer les différents processus physiques pouvant peupler les niveaux excités des atomes. Les propriétés chimiques de ce nuage, ajoutées à la très haute résolution spectrale de l’instrument utilisé (le spectrographe UVES du Very Large Telescope) ont pour la première fois permis d’isoler la température du rayonnement de fond. Srianand, Petitjean et Ledoux ont trouvé une température du fond diffus cosmologique comprise entre 6 et 14 kelvins, en accord avec la prédiction du Big Bang, de 9,1 K. La température mesurée, affectée d’une marge d’incertitude de 8 degrés (de 6 à 14 K), est explicitement supérieure aux 2,7 kelvins actuels (les 2,7 K sont en-dessous de la valeur minimale de la marge thermique observée). L’univers était plus chaud autrefois par rapport à maintenant. Sa température n’est pas constante.

 

  • « On reconnaît la qualité d’une expérience scientifique au nombre de théories qu’elle fait tomber ». 
  • « Une théorie est scientifique si et seulement si elle est susceptible d’être réfutée ; elle n’est pas vraie, mais tout au plus admise provisoirement. » (Karl Popper)

feynman3

 

J’ai trouvé des remarques dans un blog du Nouvel Observateur : http://olivier-4.blogs.nouvelobs.com/archive/2012/01/14/le-pouvoir-de-l-imaginaire-149-un-nouveau-type-de-big-bang-m.html   dont voici l’encadré ci-dessous :

NObs

 

Dans un forum, on trouve d’autres données indiquées par l’auteur : http://astro-forum.forumactif.com/t1162-le-big-bang-serait-il-faux

En substance, je cite :

  • « Notez bien que ces 2 Univers ne vivent pas l’un à coté de l’autre mais seraient très éloignés et tourneraient autour de leur barycentre commun situé à une distance de 10 puissance 67 mètres. »
  • « une expansion qui aurait durée 18 milliards d’années mais une expansion qui se serait faite par sauts quantifiés »
  • « Après ces 18 milliards d’années d’expansion l’Univers ARRÊTE son expansion. Sa température est celle qu’il a aujourd’hui car il ne se dilate plus. »

L’auteur affirme 10 puissance 67 mètres tandis que l’on sait que l’univers observable a une grandeur de l’ordre de 10 puissance 26 mètres. Auquel cas son hypothèse de deux univers est invérifiable…

L’auteur stipule une expansion quantique (par sauts), tandis que la physique quantique ne s’applique qu’à des échelles subatomiques, et ne s’applique pas aux grandes distances à l’échelle macroscopique où c’est la théorie de la relativité qui est concernée…

L’auteur déclare une expansion actuellement nulle, alors que les faits prouvent que l’expansion est accélérée, cela fut découvert en 1998 et confirmé en 2003, et cela a valu aux découvreurs le prix Nobel de physique 2011.

Et en voici les références :

Bilan :

L’auteur présente un modèle théorique au cours des années 2010 à travers des blogs et des forums. Mais l’on sait depuis janvier 2013, date à laquelle l’info est médiatisée, que l’univers avait une température de 5,1 K il y a 7,2 milliards d’années ; et l’on sait depuis 1998 (et confirmé en 2003) que l’univers est en expansion accélérée.

Ces deux contre-exemples réfutent le modèle théorique de l’auteur. L’univers n’est pas stationnaire, ni à température constante, c’est un fait.

 

  • Pour terminer ce présent article, je me permets de glisser une remarque. L’auteur dont le modèle est contesté a inversé ce que l’on attend de la méthode scientifique basée sur l’épistémologie de Karl Popper : il a cherché à trouver des confirmations empiriques ou observationnelles de sa théorie, au lieu de chercher à contredire sa théorie en trouvant des contre-exemples pouvant l’invalider. La science fonctionne par réfutation, pas par confirmation.

John Philip C. Manson

 

Comment produire une conclusion fallacieuse avec une étude biaisée

Comment produire une conclusion fallacieuse avec une étude biaisée ?

Le présent article va montrer comment on peut se planter quand un échantillon statistique est faible.

On va se baser sur un nombre limité de lancers de dé (non pipés) réalisés indépendamment par des individus.

Si une personne réalise un assez grand nombre de lancers de dés (des milliers ou des millions de lancers), elle donnera la conclusion correcte que le chiffre 6 a une probabilité de 1 sur 6 de se produire lors d’un lancer d’un dé.

Mais supposons que nous limitons à 31 seulement, le nombre de lancers par personne. Que se passe t-il au niveau des conclusions données indépendamment par chacune des personnes ? Les pourcentages suivants peuvent être obtenus expérimentalement (par lancers de dé), ou via la loi binomiale.

  • Un nombre majoritaire de personnes (19% du groupe) affirmera la conclusion qu’il se produit 5 fois le chiffre 6 avec 31 lancers de dé, soit une probabilité de 5 / 31 = 0,1613, ce qui se rapproche sensiblement de la probabilité mathématiquement correcte de 1 / 6 = 0,16666.
  • Mais un pourcentage non négligeable de personnes affirmeront des conclusions divergentes en déclarant une probabilité différente et donc fallacieuse. Voir ci-dessous :
  • 0,35% du groupe de personnes affirmeront que le chiffre 6 n’apparaît pas du tout avec 31 lancers de dé, soit une probabilité nulle !
  • 2% du groupe de personnes affirmeront que le chiffre 6 apparaît 1 fois seulement avec 31 lancers de dé, soit une probabilité de 1 sur 31.
  • 6,5% du groupe de personnes affirmeront que le chiffre 6 apparaît 2 fois avec 31 lancers de dé, soit une probabilité de 2 sur 31.
  • 12,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 3 fois avec 31 lancers de dé, soit une probabilité de 3 sur 31.
  • 17,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 4 fois avec 31 lancers de dé, soit une probabilité de 4 sur 31.
  • On a vu que 19% du groupe de personnes affirmeront que le chiffre 6 apparaît 5 fois avec 31 lancers de dé, soit une probabilité de 5 sur 31, qui équivaut grosso-modo à 1 sur 6. Seul cas où la conclusion est mathématiquement correcte !
  • 17% du groupe de personnes affirmeront que le chiffre 6 apparaît 6 fois avec 31 lancers de dé, soit une probabilité de 6 sur 31.
  • 12% du groupe de personnes affirmeront que le chiffre 6 apparaît 7 fois avec 31 lancers de dé, soit une probabilité de 7 sur 31.
  • 7% du groupe de personnes affirmeront que le chiffre 6 apparaît 8 fois avec 31 lancers de dé, soit une probabilité de 8 sur 31.
  • 4% du groupe de personnes affirmeront que le chiffre 6 apparaît 9 fois avec 31 lancers de dé, soit une probabilité de 9 sur 31.
  • 1,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 10 fois avec 31 lancers de dé, soit une probabilité de 10 sur 31, soit environ 1 chance sur 3, soit le double de la probabilité réelle !

En résumé :

  • 19% des personnes donnent une conclusion pertinente d’après un résultat qui se base sur une probabilité correcte malgré un échantillon trop faible (car 31 lancers de dé c’est insuffisant, il faut des milliers ou des millions de lancers de dé pour établir une conclusion fiable).
  • 38,7% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique inférieure à 1/6, voire même une probabilité nulle…
  • 42,3% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique supérieure à 1/6, voire même au moins le double de la probabilité réelle.

 

Il est donc très clair qu’avec un échantillon biaisé (car un nombre trop faible de lancers de dé), il est fort probable de produire une conclusion fallacieuse.

Il est alors légitime de douter complètement de l’étude qui est critiquée dans cet article ci-joint :  https://jpcmanson.wordpress.com/2015/06/27/limposture-des-biais-statistiques/   C’est à cause d’études bâclées que l’on conclut que les personnes indécises ont des tendances psychotiques et que les gauchers sont des malades mentaux… C’est une honte de publier des choses fallacieuses, et personne ne semble trouver utile et urgent de porter une critique sur ces pratiques intellectuellement malhonnêtes.

 

John Philip C. Manson

 

Expansion terrestre

  • L’expansion terrestre est une ancienne théorie géologique, désormais obsolète, selon laquelle les déplacements des continents et l’évolution de la lithosphère sont la conséquence d’une augmentation importante et accélérée de la surface et donc du volume de la Terre. La plus récente estimation de l’augmentation de surface (fondée sur la quantification et la datation des lithosphères océaniques et continentales et certaines suppositions) est un quadruplement depuis 250 millions d’années, soit un doublement du rayon terrestre durant cette période, pour une croissance actuelle d’environ 20 mm/an.

Oui cette théorie est tombée en  désuétude, heureusement. La dérive des continents avec les mouvements de convexion du manteau supérieur correspond sensiblement mieux à la réalité.

La théorie de l »expansion terrestre, si on l’évalue par les maths, ne peut pas être cohérente, son abandon est une évidence.

 

Si la Terre se dilate mais conserve une masse constante, la densité terrestre décroît exponentiellement et rapidement :

  • Masse volumique : rho(t) = 3 m e^(-3t)/ (4 pi R0^3)
  • Densité par rapport à l’eau :    d(t) = 5,52 * e^(-3t)

L’accélération de la pesanteur aussi :

  • g = 9,81 * e^(-2t)

Arguments contre ce modèle :

  • Rien ne peut expliquer une dilatation sans augmentation de masse, car cela implique que la Terre se remplirait de vide.
  • Le modèle implique une densité élevée inexpliquée dans le passé, et une densité faible dans le futur, inexpliquée non plus.
  • L’accélération de la pesanteur aurait été élevée dans le passé, impliquant des animaux préhistoriques de petite taille pour résister à leur propre poids. Alors qu’en réalité, les dinosaures avaient une tendance au gigantisme.
  • La diminution de l’accélération de la pesanteur dans le futur implique que les objets à la surface de la Terre soit un jour projetés dans l’espace du fait de la force centrifuge due à la rotation terrestre.
  • La vitesse de libération terrestre décroît exponentiellement :  v = v0 * e^(-t) = 11200 * e^(-t). Ce qui implique une vitesse de libération élevée dans le passé, impliquant une atmosphère dense.

Lorsque les arguments contre un modèle sont en quantité supérieure par rapport aux arguments favorables, il est évident que le modèle doit être invalidé.

 

Si la Terre se dilate mais conserve une densité constante :

  • Masse terrestre :  m(t) = m0 * e^(3t)
  • Densité :    d(t) = constante
  • g(t) = 9,81 * e^t

Arguments contre ce modèle :

  • La masse terrestre croît exponentiellement de plus en plus rapidement. Ce qui est contredit par la chute de moins en moins fréquente de poussières et météorites sur Terre en fonction du temps. L’apport de masse extra-atmosphérique vers la Terre diminue avec le temps.
  • L’accélération de la pesanteur croît exponentiellement avec le temps. Si cela rend a priori possible le gigantisme animal dans le passé, l’accélération de la pesanteur deviendrait très élevée dans le futur.
  • La vitesse de libération terrestre augmente exponentiellement :   v = v0 * e^(t/2). Ce qui implique une vitesse de libération faible dans le passé, ce qui implique une atmosphère terrestre primitive qui était ténue ou absente, ce qui est contradictoire avec la réalité.
  • Si la masse augmente, les corps célestes s’attirent mutuellement plus fort, et donc la lune finit par entrer en collision avec la Terre, et les planètes (dont la Terre) finiront par spiraler vers le soleil. Dans le modèle à masse constante, les orbites restent stables, mais comment expliquer une dilatation sans augmentation de masse donc avec du vide ?

 

Les deux modèles ci-dessus se base sur un doublement du rayon terrestre lors des derniers 250 millions d’années, sachant que ce rayon tendait vers zéro il y a plus de 4,6 milliards d’années. Le temps t est exprimé en années via les équations ci-dessus, avec t = 0 qui désigne l’instant présent, et t< 0 désignant le passé, et t > 0 désignant le futur.

Si le rayon terrestre croît de 20 millimètres par an à un instant donné, alors environ 13 années plus tard, cet accroissement atteind environ 10 fois plus l’augmentation précédente (20 cm environ par an au lieu de 20 millimètres par an).

Si la constante de gravitation (notée G) variait dans le temps, afin de sauver la théorie de l’expansion terrestre, cela entrerait en contradiction avec la théorie de la relativité et les équations de Friedmann, de quoi entrer en contradiction avec les théories de la cosmologie (dont le modèle du Big Bang). Si dans la théorie de l’expansion terrestre l’on veut que l’accélération de la pesanteur soit constante, alors dans le modèle d’expansion terrestre à masse terrestre constante, on a G = 6,67*10^-11 * e^(2t) ; et dans le modèle à masse variable, on a G = G0 * e^(-t). Ce qui contredit les mesures de G effectuées en 1994 et 2010 : https://fr.wikipedia.org/wiki/Constante_gravitationnelle#Nouvelles_valeurs_obtenues

 

C’est une évidence que la théorie de l’expansion terrestre n’est pas du tout crédible et devait être définitivement abandonnée.

John Philip C. Manson

 

 

 

Lorsque le mot « quantique » est mis à toutes les sauces…

Avec l’outil Google Alertes, j’ai mis le mot « quantique » sur écoute et je reçois de temps en temps un email de notification si ce mot apparaît dans un nouvel article de Wikipedia.

Ainsi, aujourd’hui je constate la suppression (totalement justifiée) de cet article inédit : http://fr.wikipedia.org/wiki/L%27amour_quantique

L’amour quantique ? C’est quoi ce nouveau délire ?

Il semble que certains confondent Wikipedia avec un bac à sable pour y écrire une forme de poésie dénuée de signification.

Il est toujours utile de faire ce rappel :

  • La physique quantique n’est ni une médecine, ni une psychothérapie, ni une spiritualité, ni une religion, ni un quelconque mysticisme, ni n’a de quelconque rapport avec des critères subjectifs, intuitifs ou émotionnels qui impliquent la conscience ou l’être humain. 
  • La théorie quantique est une théorie scientifique de la physique. Elle décrit un monde paradoxal, mais elle ne prétend pas décrire un monde mystique. La physique quantique (également connue sous le nom de mécanique quantique) concerne les technologies (photovoltaïque, lasers…) et la recherche scientifique (chimie, informatique, ordinateurs quantiques, cryptologie…). La physique quantique est l’étude et la description du mouvement des particules à l’échelle subatomique, une théorie scientifique sur la discontinuité de la matière. La physique quantique (et les autres théories scientifiques) n’a donc absolument rien à voir avec les interprétations saugrenues propres au New Age, aux religieux, aux poètes…

 

 

© 2015 John Philip C. Manson

Les extraterrestres auraient la taille d’ours polaires ?

Je cite : « S’ils existent, les extraterrestres ont probablement la taille d’un ours polaire, affirme un chercheur ».

Rappel : en science, on ne se contente pas de spéculations, il faut toujours des faits

Là, il n’y a rien de concret. Cela ne dépasse pas le stade de la science-fiction.

La théorie de la relativité sera enseignée dès l’école primaire

Apparemment, la théorie de la Relativité sera enseignée dès le CM1 à la rentrée 2015-2016.

Si cela permet de comprendre les bases scientifiques d’une théorie très mal connue du public (tout comme la physique quantique, elle-même aussi très mal comprise), cela peut être utile.

Mais peut-on expliquer la relativité d’Einstein sans enseigner les bases de la relativité galiléenne ? J’en doute.

Lorsque j’étais en Terminale dans une filière scientifique, la relativité d’Einstein a été à peine évoquée en cours… J’ai cependant pu entendre parler de physique quantique, avec quelques références comme Max Planck, Schrödinger, de Broglie, Niels Bohr… Mais j’aurais personnellement préféré que ces sujets aient été plus approfondis, à mon goût. Sinon, à quoi servirait-il d’apprendre les sciences si l’on ne vient pas à l’essentiel ? Ce sont mes lectures extra-scolaires qui m’ont appris tout sur Einstein, parce que le sujet m’intéressait fortement. En dehors des lectures hors scolarité, les élèves ont très vaguement entendu parler de la théorie d’Einstein, mais savent qu’Einstein est connu, mais sans savoir franchement de quoi parle sa théorie…

Je suis d’accord sur ce constat : L’enseignement des bases de la physique moderne a pris un retard considérable en France. Il est vrai que, en regard des progrès de la science au cours du vingtième siècle, la théorie de la  relativité et la physique quantique paraissent comme entourées d’un secret mandarinal. Il est utile de connaître quelques notions précises, sans forcément être un spécialiste ni être un mathématicien chevronné.

Mais là, stupeur, il y a quelque chose que je ne comprends pas très bien. quel intérêt d’enseigner la théorie d’Einstein à l’école primaire, quand d’emblée il est déjà assez difficile de la comprendre et la maîtriser en Terminale ? Au lycée et à l’université, les professeurs de mathématiques et ceux de physique maîtrisent eux-mêmes bien ce thème, mais j’exprime mon scepticisme quant à l’efficacité du nouveau dispositif à l’école primaire, en rappelant au passage que les instituteurs ont souvent suivi un cursus littéraire plutôt qu’un cursus scientifique…Un terrain malheureusement idéal pour risquer de faire de la mauvaise vulgarisation scientifique.

Vers 2005 ou 2006, j’ai pu lire un cours sur l’astronomie pour une classe de CM2, un cours bâclé, j’y ai lu des trucs ahurissants : par exemple, « Le soleil est né grâce à des nuages de poussières d’étoile et des nuages de gaz carbonique. » Voir archive ici : http://www.archivum.info/fr.sci.geosciences/2005-11/00026/Re-Cours-pour–l-ve-de-cm2.html Alors qu’en fait le soleil est composé majoritairement d’hydrogène et d’hélium… Voila ce qui arrive quand on confie un sujet scientifique à un enseignant qui n’a pas été formé via une filière scientifique…

La vulgarisation des sciences est un métier difficile. Il est souvent dur d’expliquer la théorie de la relativité à des élèves de Terminale, et la difficulté est fortement accentuée si la théorie est expliquée à des élèves de CM1, en simplifiant au mieux la théorie tout en prenant le soin rigoureux de ne pas dénaturer ni trahir ce que dit la théorie après avoir élaboré un contenu simplifié. Encore pire si l’instituteur ne maîtrise pas très bien les sciences si l’enseignant a eu une formation littéraire plutôt que scientifique…

Je suis sceptique sur les réformes nouvelles. L’on a constaté avec effarement que le niveau des maths a diminué, quand on a vu la polémique à propos du sujet du Bac de mathématiques en 2014… Il faudrait d’abord consolider la maîtrise des maths et la maîtrise de la langue française. Voir ici : https://jpcmanson.wordpress.com/2014/06/20/la-session-2014-de-lepreuve-de-maths-du-bac-un-carnage/

Concernant la théorie d’Einstein, il faudrait la présenter de façon attrayante pour susciter une forte curiosité qui incite les élèves à développer leurs raisonnements, et les inciter à faire des recherches et des calculs. Cela vaut pour des élèves de Terminale.

L’école primaire est d’une importance fondamentale : on y apprend les bases de la lecture, de l’écriture et du calcul. Enseigner la théorie d’Einstein en CM1 est sûrement prématuré, mais cela n’empêche pas de résumer la théorie de façon à créer des vocations scientifiques, c’est le point le plus important. Il serait opportun notamment d’expliquer ce qu’est la physique quantique, qui est une théorie scientifique de la physique, appuyée par des faits, dont le fond concerne la dynamique des particules subatomiques, et qui n’a rien à voir avec le mysticisme, ni avec la spiritualité ou la médecine ou la religion ou la science-fiction (la physique quantique est dénaturée et récupérée par la secte New Age, une forme de propagande existe via Internet à travers certaines vidéos pseudoscientifiques). Expliquer ce que sont exactement certaines théories scientifiques auprès d’élèves de CM1 permettrait d’éviter des malentendus conceptuels et d’éviter certaines dérives…

Le risque à éviter concernant le CM1, c’est de parler de théories scientifiques en les présentant maladroitement comme compliquées et insolubles, rebutantes, chiantes… Il ne faut pas prendre le risque de dégoûter les élèves des mathématiques et des sciences pour longtemps, cela ne ferait qu’aggraver la crise des vocations scientifiques… Il faut du temps pour apprendre. Brûler les étapes découragerait les élèves qui ne sont pas préparés à un tel contraste entre leur niveau et celui d’élèves de Terminale…

Cela se discute : les décisions en matière de pédagogie sont-elles déconnectés des réalités et des véritables priorités ?

Plus efficace que ls gousses d’ail, l’eau bénite, le crucifix et le soleil levant ? Une page remplie de mathématiques ! Redoutable contre les vampires et les gens normaux… Effet de recul immédiat.

iconlol

Copyright 2015 John Philip C. Manson