Suppression des notes à l’école : la priorité c’est d’apprendre à lire, écrire et compter

Je cite :

  • « Utiliser convenablement l’outil informatique suppose une immense culture préalable. Imaginez un gosse de Sixième s’interrogeant sur les pyramides égyptiennes — c’est au programme. La première page de Google lui offre certes la fiche Wikipedia, mais tout le reste (à commencer par des films bien plus séduisants pour lui qu’une longue fiche) porte sur l’action des extra-terrestres… Qu’en conclura-t-il, s’il n’a pas les savoirs préalables donnés par un enseignant responsable ? « 

Pour rappel, Wikipedia est une encyclopédie gratuite en ligne mais sujette à controverses sur l’objectivité de ses contenus ; et les films concernent les vidéos de propagande idéologique (ufologie, New Age) sur le site Youtube. C’est inquiétant en effet, sans encadrement incitant au recul critique.

Le passage à l’ère numérique et le projet de suppression des notes à l’école n’apportent pas d’amélioration et ne font que contourner les problèmes qui s’aggravent d’année en année..

La base de la pédagogie devrait rester le bon sens… Doter les élèves de tablettes numériques ne changera rien. Seul le travail personnel, la motivation, garantit le progrès, mais pas les gadgets technologiques ni les réformes loufoques visant à abolir les notes… Vont-ils finir par abolir l’école ?…

 

La toxicité prénatale des phtalates et ses effets sur le QI

Je prends connaissance d’une étude selon laquelle l’exposition in utero à des niveaux élevés de phtalates (substances chimiques) a un effet nocif sur le quotient intellectuel (lequel serait moindre à l’âge de 7 ans par rapport aux enfants du même âge qui ne sont pas exposés aux phtalates).

Il est indéniable qu’il existe des produits chimiques nocifs qui soient néfastes au système nerveux central. Ce n’est pas cela qui est critiqué ici. On sait que les phtalates sont des perturbateurs endocriniens, et on les suspecte d’être cancérigènes.

L’objet de la critique ici, c’est l’emploi du QI comme moyen de mesure et de comparaison. Des biopsies permettant de déceler des lésions cérébrales ou des perturbations neurochimiques du cerveau sont des exemples qui conduisent à une étude aux résultats fiables. Mais le QI, lui, n’a de rôle que celui d’indicateur, sa fiabilité objective est plutôt relative.

Chez un seul individu qui passe plusieurs tests de QI le même jour, les résultats de chaque test de QI sont variables assez sensiblement d’un test de QI à l’autre. Cela fait qu’il est peu crédible qu’une étude soit fiable si elle prétend à mesurer des variations du QI parce que celui-ci est lui-même fortement variable d’un test à l’autre.

Si l’on ne réalise qu’un seul test de QI, l’on aura déterminé le QI de la personne. Mais en science, en toute rigueur, l’on se base surtout sur la reproduction des tests afin d’établir une grandeur moyenne que l’on associe à une marge d’incertitude.

Par exemple, pour 9 tests de QI (du même type de test comme structure) effectués par un seul individu le même jour, on peut constater une dispersion non négligeable autour de la valeur moyenne du QI de l’individu. Article à lire :  http://jpcmanson.wordpress.com/2012/05/24/experience-statistique-sur-9-tests-de-qi/

Ayant expérimenté sur moi-même, mon QI moyen est de 126, mais ce nombre est affecté d’une incertitude de plus ou moins 11 points de QI. Ce détail important ne doit pas être négligé.

Qu’est-ce qu’une expérience scientifique dans laquelle la comparaison est un critère essentiel ? Un résultat est probant, positif, quand la grandeur observée est externe à la marge d’incertitude. Par exemple, pour faire une métaphore compréhensible : en physique acoustique, s’il existe un bruit de fond qui oscille autour d’une moyenne de 30 décibels avec une incertitude de plus ou moins 3 décibels, alors on peut dire qu’on a quelque chose de probant s’il l’on détecte un bruit de plus de 33 décibels : et en particulier, a contrario, on n’a rien de probant si on détecte un bruit compris dans l’intervalle d’incertitude (comme une hallucination auditive, quand un ingénieur du son a cru entendre la voix outre-tombe de Frank Sinatra). On peut ainsi avoir un biais d’interprétation d’un résultat quand le phénomène perçu reste dans la marge d’incertitude du bruit de fond (c’est-à-dire croire mettre en évidence un phénomène qui n’en est pas finalement un…). Par exemple, les parapsychologues crédules peuvent croire percevoir des fantômes dans une maison hantée, alors que l’impression de sentir une « présence » est souvent due à l’émission d’infrasons lorsque le vent circule dans des canalisations. Ce que je veux dire, c’est que l’on peut imaginer les théories les plus loufoques à partir de l’oubli manifeste de ce paramètre important qu’est la marge d’incertitude ; tout comme le déni du hasard notamment dans l’étude biaisée de l’astrologie, alors que le hasard comme moyen de comparaison permet de déceler quelque chose de significatif si ce quelque chose se distingue clairement des résultats dûs au seul hasard (il n’y a pas de phénomène découvert si les résultats se confondent avec ceux du hasard).

Pour revenir au concept de QI, qu’avons-nous concrètement d’après ce que l’étude affirme ?

Je cite l’article du Figaro :

  • « Pour cette étude, les auteurs ont suivi 328 New-Yorkaises enceintes aux revenus modestes, et l’évolution de leurs enfants. Ils ont mesuré dans l’urine des futures mères, au troisième trimestre de la grossesse, les niveaux de cinq types de phtalates. Le QI de l’enfant a par la suite été testé quand ce dernier a atteint l’âge de 7 ans. Résultat : ceux qui avaient été exposés in utero aux concentrations les plus élevées de phtalates DBP et DiBP avaient un QI de 6,6 à 7,6 points plus bas que ceux qui avaient été en contact avec des niveaux plus faibles. »

Or, il y a un problème : chez un même individu qui se soumet à plusieurs tests de QI le même jour, les résultats des différents tests sont sensiblement variables entre eux, avec plus ou moins 11 points de QI d’incertitude.

Et l’étude sur les phtalates nous révèle une différence de 6 à 8 points de QI (si on arrondit aux valeurs entières). L’étude présente donc une différence qui reste comprise dans la marge d’incertitude due aux tests de QI eux-mêmes, mais non selon une valeur significativement distincte de cette marge d’incertitude.

Ma critique ne nie pas le rôle toxique réel des phtalates, je veux juste souligner que le concept de QI peut conduire à des biais expérimentaux.

Les tests de QI ne sont qu’un indicateur, une approximation (il existe des faux-positifs). S’en servir comme moyen de mesure pour effectuer des comparaisons est donc inadapté. Dans une maladie comme la maladie d’Alzheimer ou la sclérose en plaques, par exemple, on se base sur des autopsies afin de déceler des lésions cérébrales et des modifications neurochimiques (prélèvements de tissus, observations histologiques, analyses biochimiques des protéines…), et cette méthode est nettement plus fiable que le concept plutôt abscons du QI. Mais le choix du QI comme moyen de comparaison vient du fait que c’est plus simple (on ne va pas faire des biopsies ni des autopsies…) mais ce choix ne rend pas le résultat aussi fiable…

On ne peut pas quantifier de façon fiable l’intelligence humaine. Lorsque le QI intervient dans des études scientifiques, on peut considérer que celles-ci sont discutables (en fait, toutes les « découvertes » scientifiques sont épistémologiquement réfutables).

On a très souvent tort de considérer des résultats d’études comme des vérités mises en plein jour. Le critère essentiel qui définit la science, c’est la réfutabilité, c’est-à-dire que tout résultat est un édifice dont on a le devoir d’évaluer sa solidité. En particulier, la vulgarisation scientifique doit inviter et inciter à porter un regard critique objectif et argumenté sur les découvertes scientifiques plutôt que d’accueillir bêtement ces découvertes scientifiques comme des vérités incontestables. C’est sur ce détail que j’insiste.

 

© 2014 John Philip C. Manson

Incohérence dans un article de Wikipedia

Dans l’article Wikipedia concernant la pollution électromagnétique, il est opportun d’observer que des phrases polémiques orientées par des convictions personnelles peuvent se révéler incohérentes quand on les examine de plus près.

Par exemple, je cite : « Les spécialistes se sont fondés sur des études épidémiologiques indiquant un taux de 1.7 à 2 fois plus élevé de leucémie de l’enfant dans le cas d’exposition longue à un champ magnétique moyen supérieur à un seuil de 0,3 à 0,4 µT, sans pour autant exclure la possibilité d’autres explications. »

  • Première remarque : le lien hypertexte servant à sourcer l’affirmation citée ci-dessus est mort, le document est inexistant (http://monographs.iarc.fr/ENG/Monographs/vol80/volume80.pdf)
  • Deuxième remarque : des champs magnétiques de 0,3 à 0,4 µT pouvant être cancérigènes ? Peu crédible, parce que le champ magnétique terrestre lui-même a un champ d’environ 47 µT, c’est-à-dire plus de 100 fois l’intensité du « seuil critique » supposé… De plus, les anciens aimants en acier sont 3000 à 60 000 fois plus magnétiques qu’un champ de 0,3 µT, tandis que les aimants actuels (ferrites) sont 600 000 à 1,2 million de fois plus magnétique que le seuil de 0,3 µT. Je vous laisse deviner à quelle distance convenable l’on doit se tenir par rapport à des aimants, par exemple (il faut se placer à plus de 6 mètres d’un aimant de 4 cm ayant un champ de 1,3 tesla afin de retrouver le seuil du champ magnétique terrestre); mais il est cependant impossible de réduire le champ magnétique terrestre. Je n’ai pas connaissance de cas de leucémies, voire une épidémie de cancers, à cause des aimants et du champ magnétique terrestre

 

Complément d’info le 16 décembre 2014 :

  • Le Dr Goulu m’a aimablement livré une réponse au sujet de cet article, réponse que je publie ci-dessous.

EM

Oui, Dr Goulu, il est autant important de rectifier l’article erroné de Wikipedia que d’en faire la critique dans un blog.  ;)

Quant aux analyses indépendantes qui combinent ensemble les résultats de plusieurs études, il faut prendre en compte le fameux paradoxe de Simpson en cas de nécessité : http://fr.wikipedia.org/wiki/Paradoxe_de_Simpson  afin d’éviter au mieux les biais statistiques.

 

La critique de Wikipedia vise à faire comprendre que tout ce que l’on trouve sur le web pour se documenter n’est pas forcément fiable. Les lycéens et les étudiants ne doivent pas considérer les textes pour vrais, ces textes doivent toujours être évalués. Améliorer Wikipedia est un gros travail qui nécessite du temps libre et de bonnes connaissances, et surtout beaucoup d’objectivité et de recul. Il serait intéressant d’observer la chronologie des articles sur Wikipedia par rapport au nombre d’articles modifiés/créés en fonction du nombre de contributeurs wikipédiens. La tendance actuelle de Wikipedia est-elle la régression des contributions ou est-ce stable ? Il est vrai qu’il faut agir : une encyclopédie qui ne remet pas souvent les articles en question est une encyclopédie en danger, et le retard cumulé pourrait difficilement être rattrapé. C’est d’autant plus préoccupant quand les articles concernent les sciences. Combattre l’amalgame entre science et pseudo-science est un devoir et une nécessité.

 

© 2014 John Philip C. Manson

 

Travail, logistique et mathématiques

Dans le premier paragraphe de l’article du lien ci-dessus, il y a quelques données exploitables.

Je cite :

data-Poisson

On observe qu’en moyenne, un employé prépare 13,6 colis par heure. Cependant, selon la distribution de Poisson, la cadence peut être statistiquement plus importante : en effet, au long d’une année de travail au sein de l’entreprise, l’heure annuelle la plus pressante pour un employé peut atteindre environ 29 colis par heure, c’est-à-dire un peu plus du double de la cadence horaire moyenne.

 

© 2014 John Philip C. Manson

 

Chimie statistique du magnésium dans les eaux minérales

En m’intéressant aux eaux naturelles contenant du magnésium, j’ai pu établir une liste relativement suffisamment complète des diverses eaux minérales existantes en France métropolitaine selon leur teneur en magnésium :

Composition des eaux en magnésium (mg/L)

257 Source Salmière (Alvignac, Lot, Midi-Pyrénées)
160 Rozana (Rouzat, Massif-central)
127 Eau de mer
119 Hépar (Vittel, Vosges, à 3 km à l’est de la grande source de Vittel)
82 Eau de Velleminfroy
80 Badoit (Saint-Galmier, Loire)
74.5 Contrex (Contrexéville, Vosges)
70 Reine des Basaltes (Asperjoc, Ardèche)
43.1 Vittel (Vosges)
26 Evian (Alpes, Haute-Savoie)
25 Cristaline (22 sources différentes)
17 Vernet (Prades, Ardèches)
16 Arcens (Ardèche)
9.5 Salvetat (La Salvetat-sur-Agout, Haut-Languedoc, dans le Sud de la France (Hérault, région Languedoc-Roussillon))
8 Volvic (Volvic, Puy-de-Dôme, région Auvergne)
6 Eau de Paris
2.2 Isabelle (sommet des Montagnes Noires, Finistère, Saint-Goazec à la Source de la Reine)
0.7 Montcalm (Pyrénées ariégeoises)
0.5 Mont Roucous (Haut-Languedoc)

 

Ensuite, en faisant le lien entre la teneur en magnésium et le rang de chaque eau selon la teneur par ordre décroissant, je constate cela :

Mg

  • Axe des ordonnées : C(r) ; la concentration en magnésium en mg/L
  • Axe des abcisses : r ; le rang de chaque eau minérale
  • Si la courbe est une décroissance exponentielle :   C(r) = 290,619 × e^(-0.227275×r)
  • Si la courbe est une décroissance logarithmique :   C(r) = 230,98 – 82,9979 ln r

Je présume que la courbe suit une distribution au hasard, comme de nombreux phénomènes naturels.

-

 Ajout du 10 décembre 2014 :

J’ai complété entre-temps la liste des eaux minérales (Quézac, Courmayeur, Sainte-Marguerite, Wattwiller, etc). Inutile d’y ajouter le cas particulier de l’eau de mer, ainsi que les doublons de valeurs.

  • Décroissance exponentielle :   C(r) = 280,704 × e^(-0,229723×r)
  • A partir du 11e rang (sur axe r) :   droite D = -1,53912×r + 22,495
  • Supposition : La courbe C(r) suit une fonction de décroissance exponentielle probablement du fait que les concentrations de plus en plus élevées en magnésium se font de plus en plus rares selon les sources d’eau connues existantes), tandis qu’un taux faible en magnésium est plus courant. Si les taux en magnésium étaient équiprobables pour chaque source d’eau, la courbe C(r) tendrait à être une droite en pente décroissante.

Voici la courbe C(r), affinée par rapport à la première courbe précédente :

watercurve

 

 

© 2014 John Philip C. Manson

 

Pluviométrie estivale annuelle et statistiques

pluie_juillet_août_14_02

Ils soulignent bien que 2014 présente un maximum de précipitations estivales par rapport à la période 1959-2014. Mais en statistiques, on n’emploie pas des cas isolés pour affirmer des superlatifs. En statistiques, on évoque plutôt la signifiance, c’est-à-dire un résultat significatif.

En statistiques, on parle de résultat significatif s’il a jusqu’à 5% de probabilité de se produire (parfois le seuil est fixé à 1%).

Faute de pouvoir isoler les données de façon à essayer de les convertir en nombres, j’ai cependant pu définir des tranches, en les distinguant par niveau, n traçant des droites horizontales sur le diagramme.

  • Niveau A : 0 à 25 mm de précipitations pour une année donnée.
  • Niveau B : 25 à 50 mm
  • Niveau C : 50 à 75 mm
  • etc…
  • Niveau J : 225 à 250 mm
  • Niveau Q : 425 à 450 mm

Pour ces différentes tranches, on a alors un diagramme en bâtonnets plutôt qu’une courbe.

Voici le tableau de données que j’obtiens par analyse du diagramme, j’attribue le nombre d’occurrences pour chaque niveau défini :

 

  • A   B   C   D   E   F   G   H   I   J
  • 0   0    2   11   18  12  6   6   1   0

Vous l’aurez compris : A = 0, B = 0, C = 2, D = 11 et ainsi de suite…

Résultat : la moyenne correspond au cinquième niveau (E), soit l’intervalle de 100 à 125 mm de précipitations estivales.

Pour une p-value de 0,05, on a alors z = Q, c’est-à-dire que pour qu’un résultat soit significatif, il devra être d’au moins 425 à 450 mm de précipitations estivales pour une année donnée afin de se distinguer de l’ensemble de l’échantillon de l’an 1959 à l’an 2014.

Oui, en juillet et août 2014, il a un peu plus plu en France par rapport aux 54 dernières années, c’est un fait, (mais le GIEC, lui, nous promettait une sécheresse punitive…) mais l’excédant de précipitations en 2014 n’est statistiquement pas significatif. Rechercher des détails qui permettent d’étayer un changement climatique ne doit pas se résumer à trouver des cas isolés aléatoires quand la chance se présente, car le vrai problème est celui de la signifiance : il faut ainsi distinguer les fluctuations dues au hasard et les phénomènes qui ont une cause précise (un réel changement climatique). La signifiance en climatologie n’a de sens que sur le long terme (des siècles et des millénaires, mais pas sur environ 50 ans).

En 2014, le léger excès de précipitations estivales (par rapport aux précipitations de la période 1959-2014) peut être imputé au hasard plutôt qu’à une loi physique déterministe. En effet, il semble que la valeur enregistrée pour 2014 (ainsi que les valeurs supérieures à celle de 2014) soit un événement qui a 29,3% de chance de se produire aléatoirement, c’est-à-dire que sur l’intervalle d’un siècle il peut se réaliser plusieurs fois.

Je m’efforce de parfaire mes compétences en statistiques aussi bien que possible (j’essaie d’améliorer mon niveau en mathématiques depuis la fin de mes études universitaires). L’avis du Dr Goulu me sera précieux si j’ai omis certains détails, je tiens à être le plus objectif possible avec l’appui des mathématiques.

© 2014 John Philip C. Manson

 

La météo pour 2050 est-elle crédible ?

Comment évaluer une pareille prédiction ?

L’on sait pertinemment que la température moyenne globale a augmenté de 0,6°C en un siècle, avec une marge d’incertitude de 0,2°C. Je vais baser mes calculs suivants sur la prédiction selon laquelle le taux de CO2 va croître de 2,2% par an (hypothèse du GIEC) à compter de maintenant.

Or nous savons qu’il existe quelques milliers de stations météo réparties à travers le monde, majoritairement sur les continents plutôt qu’en milieu océanique. Il y aurait 6000 stations seulement. Comme la température moyenne globale a augmenté de 0,6°C en un siècle, avec une marge d’incertitude de 0,2°C, on peut dire que la courbe est une fonction de Gauss, centrée sur la moyenne, avec un écart-type de 0,2°C. D’après la dispersion des données autour de la moyenne, alors l’on peut dire que parmi les 6000 stations, pour le 19e et le 20e siècle, l’augmentation de  température maximum relevable dans une de ces stations est +1,47°C, tandis que la majeure proportion des données sont autour de la valeur moyenne (+0,6°C).

Maintenant, on considère les températures moyennes du mois d’août en France pour la période 1981-2010 dont voici un bref aperçu ci-dessous :

moyenne-aug-1981-2010

Et on compare avec la météo-fiction insolite :

2050

On constate près de 15 degrés d’écart (de 25°c environ à 40°C environ) par rapport à la « normale » actuelle du mois d’août, ce qui est énorme.

Or, si on se base sur un accroissement du taux de CO2 de 2,2% par an, cela nous conduit à une augmentation de température théorique en moyenne de 0,77°C avec une marge d’incertitude de 0,26°C, et dont le seuil maximum pour une station météo sur 6000 stations dans le monde est de +1,88°C. Mais pas environ 15°C de plus…

Gauss2050

A moins de décider d’incendier toutes les forêts mondiales pour libérer tout le CO2 ou presque, ou en ayant un nombre infini de stations météo dans le monde (en effet, avec 100 milliards de stations météo dans le monde, l’on ne rencontrerait qu’une station avec un maximum de +2,64°C comme variation thermique extrême bien au-dessus de la moyenne de +0,77°C).

Mais 15 degrés Celsius de plus, cela ne colle absolument pas avec les outils mathématiques que sont la loi de Stefan-Boltzmann, le forçage radiatif du CO2, la formule d’Arrhenius et la courbe normale de Gauss exprimant des probabilités autour d’une élévation thermique moyenne en fonction de l’élévation de température. Il y a quelque chose qui cloche. Quinze degrés de plus, cela arrive dans des épisodes de canicule, comme celle de l’été 2003 en France, mais ces 15°C de plus ne paraissent pas crédibles comme phénomène constant pour chaque mois d’août dès 2050.

Je ne fais qu’apporter un raisonnement avec l’appui des statistiques. Je ne prétends pas avoir raison. Je veux juste dire que quand je vérifie un truc, comme ici, ça ne colle pas avec ce que les médias veulent nous faire avaler… Ce qui est fort probable, c’est qu’en 2050 je ne serai plus là pour vérifier afin de comparer la « prophétie » avec les observations… Ben voyons, on spécule sur un futur suffisamment lointain afin d’éviter les critiques en cas d’échec de la prédiction…

L’erreur est de considérer ces spéculations comme des certitudes. Des hypothèses doivent pouvoir être comparées avec des observations factuelles, et cela pose un problème si ceux qui veulent effectuer ces observations ne vivront pas assez longtemps afin de pouvoir les faire le moment venu…

 

Ironie : C’est cela ouiiii, dans ma boule de cristal, je vois l’avenir du futur, et même si je me trompe, mes clients ne seront plus là dans quelques décennies car ils seront morts naturellement avant…

iconlol

irma

 

© 2014 John Philip C. Manson