Diagramme de Pareto et popularité de mon blog

Depuis que j’ai commencé mon blog (en 2007 sur un premier blog, puis dès 2011 sur ce présent blog), je n’avais pas trop prêté attention à la popularité de mon blog.

À ce jour, le 14 décembre 2017, mon blog en est à 384808 hits (100% des vues, référence pour les calculs ci-dessous).

En appliquant le principe de Pareto à mon blog, j’ai obtenu une information intéressante. Au lieu d’avoir une proportion 80-20, on obtient plutôt une proportion 80-4…

  • 80% des vues se concentrent sur les 20 principaux articles dont l’index du blog lui-même (soit 4% des articles lus)… Cela est évalué à partir de l’information ci-dessous.
  • Observé : les 5 principaux articles (1% des articles lus) représentent à eux seuls 34% des vues.
  • Environ la moitié de la totalité de mes articles n’est quasiment jamais lue.

De quoi dois-je parler comme sujet pour booster les vues quotidiennement, si j’en avais envie ?

Citation d’Einstein : authentique ou apocryphe ? More stats
Géométrie plane des quadrilatères aux 4 côtés inégaux entre eux More stats
Cours de chimie : l’eau de mer n’est pas acide mais alcaline ! More stats
Expérience statistique sur 9 tests de QI More stats
Qu’est-ce qu’un débat ? More stats
Le mercure rouge More stats
Brevet : épreuve de mathématiques More stats
Qu’est-ce qu’un noeud tellurique ? More stats
Une pale d’éolienne s’écrase au sol en Eure-et-Loir More stats
Les questions fûtées de Google lors d’un entretien d’embauche More stats
Un générateur électrique fonctionnant à l’hydrogène produit avec de l’urine ? More stats
Combien de CO2 «dégage» un kWh électrique ? More stats
Liste de blogs et sites scientifiques More stats
Scepticisme à propos du génie en mathématiques More stats
Géométrie tridimensionnelle et coordonnées GPS More stats
Qu’est-ce que la normalité ? More stats
Le vrai visage du New Age ou Nouvel Âge More stats
Une équation de Newton restée une énigme depuis 350 ans ? More stats
Shouryya Ray, l’heure de vérité More stats
Qu’est-ce qu’un scientifique ?

 

Pour booster un blog, il faut parler d’Einstein et de ses citations (apocryphes ou authentiques), c’est clair. Les mots « expérience » et « QI » associés, aussi. On peut également évoquer les sujets des annales du bac et du brevet. Le thème de Google marche bien aussi. Les listes de sites scientifiques aussi.

Ce n’est malheureusement pas les sujets les plus intéressants qui sont les plus lus.

Publicités

Auto-entrepreneurs en 2013

Je m’appuie sur quelques rares données auxquelles j’applique mes calculs que personne ne fait, c’est pourtant intéressant à faire.

Le chiffre d’affaire fait à partir des auto-entrepreneurs n’est pas extraordinaire : en février 2013, les 894681 auto-entrepreneurs comptabilisés en France ont généré 1,43 milliards d’euros.

  • Remarque n°1 : 51,2% des auto-entrepreneurs ne font pas d’argent du tout, zéro euro. Au terme de 2 ans sans CA, ils seront radiés.
  • Remarque n°2 : les 48,8% restants, supposés faire un chiffre d’affaire (CA) non nul, c’est-à-dire 409760 auto-entrepreneurs, font une moyenne de 3500 euros par trimestre.
  • 51220 AE gagnent plus de 7500 € par trimestre, dont 26030 AE qui touchent plus de 10000 € par trimestre.
  • Donc 25190 AE gagnent entre 7500 et 10000 € par trimestre.
  • Et 358540 AE gagnent moins de 7500 € par trimestre.

En me basant avec la loi exponentielle sur un CA moyen de 3606,74 € par trimestre pour les AE actifs, on retrouve sensiblement assez bien le nombre d’AE correspondant à un intervalle de CA donné, avec une bonne approximation, à partir des données précédentes un peu plus haut.

  • N = 839672 * 0,488 * intégrale de x=0 à 7500 de (1/3606,74)*e^(-x/3606,74) dx = 358540.
  • Il y aurait entre 39000 et 42000 AE seulement qui dépasseraient le seuil plafonné de 32900 € de CA, impliquant un changement de statut entrepreneurial. Sur plus de 800000 AE, ce n’est pas beaucoup.
  • Environ un tiers des AE actifs gagneraient environ 3900 € par trimestre au moins (donc un bénéfice net de 1000 € par mois après déduction de 23% de cotisations si on est une profession libérale), donc les deux tiers des AE actifs sont en-dessous du seuil du gain de 1000 € nets par mois. Une auto-entreprise est une activité majoritairement précaire.

Les médias présentent trop souvent une image idéaliste et irréaliste de l’activité auto-entrepreneuriale, en vantant la liberté et l’esprit d’entreprendre et la « facilité » de rebondir professionnellement. La réalité montre un visage plus cruel, avec des difficultés à surmonter au quotidien.

 

Santé et WiFi (vu dans un magazine de jeux)

Les ondes électromagnétiques du WiFi sont-elles néfastes ?

  • L’encart du texte raconte que le corps humain est composé de 75% d’eau. FAUX ! Le corps humain adulte est composé de 66% d’eau. Nous ne sommes pas plein d’eau comme les méduses, tout de même…   
  • Concernant la fréquence de 2,4 GHz du WiFi c’est correct. Mais parlons de ce qui concerne la puissance du signal WiFi : à bout portant de la box ADSL, j’ai constaté une valeur maximum de -12 dBm (sachant que 0 dBm équivaut à 1 millième de watt, et que la puissance décroît de moitié si on diminue de 3 dBm). -12 dBm équivaut à seulement 62,5 millionième de watt, c’est une puissance électromagnétique très faible, sans conséquence sur la santé.
  • En comparaison, une ampoule de 40 W émet 640 000 fois plus de rayonnement qu’une box WiFi.
  • Et un four à micro-ondes de 600 W a une puissance 9,6 millions de fois plus intense que celle d’une box WiFi.
  • Il est rigoureusement impossible que le WiFi ou un téléphone mobile puissent aboutir à une cuisson ou un réchauffement, à cause de leur faible puissance par rapport à celle de l’électroménager spécialement conçu dans ce but.
  • Le CMBR (rayonnement fossile du Big Bang) a un flux du même ordre de grandeur que celui de la WiFi d’une box ADSL dans un bureau, mais possède une fréquence plus élevée. C’est quand même marrant ça, des « électrosensibles » se plaignent de la WiFi (sans omettre de diaboliser aussi tous les autres appareils électriques), mais ne disent absolument rien (et ne s’en plaignent pas) sur le rayonnement fossile qui a la même nature (et la même intensité de flux) que la WiFi. Plus précisément, les longueurs d’onde et fréquence typiques du rayonnement fossile sont respectivement 1,06 mm et 100 GHz.
  • Seuls les rayonnements ionisants (UV, rayons X, rayons gamma) sont nocifs et dangereux, à ce jour. Concernant les ondes radio, on n’a jamais pu le prouver.

 

Je commence à en avoir marre de ces journaleux qui entretiennent les peurs et les psychoses (sous prétexte de principe de précaution complètement irrationnel) sur des sujets qu’ils ne maîtrisent pas eux-mêmes, sans même avancer des chiffres concrets… Et les lecteurs se comportent en moutons, en croyant tout ce qu’ils lisent… Faites des maths pour comprendre !!! Vérifiez ! Ce n’est pas sorcier.

Une super Lune, encore ?…

Une vidéo YouTube de AstronoGeek :

AstronoGeek a raison.

  • La Lune passe à son périgée une fois par mois.
  • La différence entre une pleine lune de super Lune et une lune moyenne est négligeable et imperceptible à l’œil nu.

  • La super lune du 19 mars 2011 (à droite), comparée à une lune plus moyenne du 20 décembre 2010 (à gauche), vue de la Terre, ci-dessus.
  • Des spéculations ont affirmé que la super Lune aurait une influence sur l’augmentation de l’activité sismique terrestre mais aucune corrélation n’a été prouvée, notamment avec les séismes les plus importants.
  • La super Lune n’est pas vraiment de l’information, elle a seulement une justification médiatique, mais elle n’est pas un terme astronomique et ne recouvre pas de définition précise.
  • En 2012, je doutais déjà de la super Lune dans mon blog : par calcul j’avais pu établir la différence entre la super Lune et une lune ordinaire moyenne. Par rapport à la moyenne, le diamètre angulaire de la lune lors du périhélie n’augmente que de 5,7% à 7,9% environ, c’est relativement faible. Et par conséquent, la luminosité de la pleine lune nocturne lors du périhélie est 11,7% à 16,4% plus forte que lors d’une pleine lune moyenne. Ces différences sont imperceptibles à l’œil nu.

AstronoGeek a raison de pousser un coup de gueule contre les journaleux qui écrivent de la merde. Moi aussi, j’en ai marre. On a de moins en moins d’information de qualité au quotidien, c’est inquiétant. Cela devient de la malbouffe intellectuelle. Par paresse intellectuelle, les journaleux ne prennent plus soin de vérifier leurs sources, de se relire ; et les lecteurs influencés par ce qu’ils lisent ont de moins en moins d’esprit critique. Il faut réagir, on ne peut pas se résigner à cette décadence, sinon on court à la catastrophe…

La puissance organisatrice du hasard

Voici une vidéo intéressante de Mickaël Launay sur YouTube, qui montre que le hasard est à l’origine de structures organisées et complexes :

 

 

Mon opinion :

  • En science, Dieu (ou le dessein intelligent) n’est pas une hypothèse nécessaire.
  • Le hasard, à lui seul, explique de nombreux phénomènes, dont l’évolution des espèces et la sélection naturelle.

Opposition

Je l’avais déjà signalé ces derniers mois, mais je le réitère ici.

Je m’oppose formellement à ce que le contenu de mon blog, ainsi que mon identité « JP C Manson », soient réutilisés par des tiers sans mon consentement ! Seul mon blog jpcmanson.wordpress.com est authentique (rédigé par moi-même).

Seul le droit de citation est autorisé (après demande de permission), en ne citant que des textes courts, et avec un lien vers la source.

Le plagiat est un délit.

Idées inspirées de la loi de Pareto

Le principe de Pareto, aussi appelé loi de Paretoprincipe des 80-20 ou encore loi des 80-20, est un phénomène empirique constaté dans certains domaines : environ 80 % des effets sont le produit de 20 % des causes. Il a été appliqué à des domaines comme le contrôle qualité. On considère souvent que les phénomènes pour lesquels ce principe est vérifié suivent une forme particulière de distribution de Pareto.

  • 20% des causes ont 80% d’effets.
  • 0% des causes ont 0% d’effets.
  • 100% des causes ont 100% d’effets.

Équation des effets en fonction des causes :    y = 1 – e^(-8,04719*x)    (le principe de Pareto a peut-être une formule un peu différente, mais la mienne s’en approche sensiblement).

Mon équation est une solution de l’équation différentielle :   x(y – 1) = -y’

En essayant avec les équations habituelles de Pareto, je trouve que 1-(1/(1+0.086))^8.42747 donne la même courbe que y=1 – e^(-8,04719*x). Cela colle.

Qu’est-ce qu’on pourrait avancer avec ces pourcentages ?

    • En théorie, selon moi, construire optimalement les éoliennes dans 20% des endroits les plus venteux permettrait réaliser 80% du rendement total prévu. Les éoliennes, il ne faut pas en mettre partout, mais seulement là où c’est le plus nécessaire, c’est une affaire de bon sens et de calcul. Même raisonnement et mêmes proportions pour les panneaux solaires et le taux d’ensoleillement.
    • En théorie, selon moi, 8,6% des gens les plus intelligents (donc un QI d’au mois 120 sur l’échelle de Wechsler) parmi la population produisent 50% de la totalité des trucs intellectuels les plus utiles. Idée plus générale : si on recrute parmi 8,6% de la population les gens les plus compétents, on peut alors réduire de façon optimale les effectifs. Idée intéressante, qui reste à vérifier. En effet, si 100 employés (quelque soit leurs compétences) réalisent 100% du travail, alors seulement 9 personnes les plus compétentes suffisent pour réaliser 50% du travail. On voit l’intérêt de l’optimisation.
    • Empiriquement : 80 % des ventes dans un commerce sont réalisées grâce à 20% des meilleurs clients. Et aussi : 20 % des produits représentent 80 % du chiffre d’affaires.
    • Empiriquement : 80% des réclamations sont formulées par 20% des clients. Donc aussi : 50% des réclamations proviennent de 8,6% des clients.
    • Empiriquement : 80% d’accomplissement d’une mise au point nécessite 20% de l’effort (c’est notamment le cas dans une entreprise de développement de logiciels ou de jeux vidéo). Et aussi : 50% d’accomplissement avec 8,6% de l’effort.
    • Empiriquement : 20 % du trafic provient des mots clés principaux de la tête de la longue traîne. 80 % des mots clés secondaires de la queue de la longue traîne.
    • En théorie, 80% des contributions sur Wikipedia seraient réalisées par 20% des contributeurs. Mais selon la règle du 1%, sur Internet : moins de 1% de la population contribue de façon active, 9% participe occasionnellement et 90% sont des consommateurs passifs qui ne contribuent jamais. L’hypothèse de la répartition 90-9-1 aboutit à l’option soit d’intégrer la minorité émergente au pouvoir, soit de faire dégénérer la société.
    • Empirique : 20% des bugs informatiques sont responsables de 80% des plantages de logiciels.
    • Empirique : 20% des articles en stock représentent 80% du coût de stockage.
    • Empirique : 20% des lecteurs lisent 80% des livres vendus.
    • Empirique : 20% des citoyens imposables génèrent 80% de la trésorerie publique.
    • Empirique : 20% des mots de votre vocabulaire suffisent à vous exprimez dans 80% des cas.
    • En théorie, selon moi : 20% des pays de la planète engendre 80% de la pollution mondiale.
    • En théorie, selon moi : 20% des entreprises les mieux sécurisées en informatique dans le monde sont préservées de la menace de 80% des virus et cyber-attaques.
    • En théorie, selon moi : 80% des meilleurs scores dans un jeu vidéo sont réalisés par 20% des meilleurs joueurs.
    • En creusant d’autres exemples, on peut en trouver.

 

Pour conclure : si on résout 20% de nos problèmes principaux, on résout 80% de tous les problèmes. Et résoudre 8,6% des problèmes principaux, c’est résoudre la moitié des problèmes. On voit ici que les maths sont utiles pour mieux s’organiser et mieux décider. Il faut se concentrer sur un petit nombre de faits qui engendre le maximum de conséquences.

 

 

 

 

© 2017-2018 John Philip C. Manson

Médiumnité et ampoules électriques grillées

Supposons une émission télévisée avec un animateur populaire qui met un scène un « puissant médium » qui se prétend capable de griller par télékinésie les ampoules électriques à distance.

Supposons qu’il y ait un million de téléspectateurs qui regardent l’émission, ou plutôt 1 million de domiciles, et que dans chaque domicile il y ait en moyenne 16 ampoules électriques. L’émission est diffusée lors du début du crépuscule, au soir, pendant une durée de 2 heures.

Le médium se concentre (ou feint de se concentrer) sur sa capacité à agir à distance sur des ampoules électriques, prétendument par télékinésie. Soudain au cours de l’émission, le standard téléphonique explose : des milliers d’appels préviennent sur des phénomènes de grillage d’ampoules chez eux. Le médium a t-il donc un mystérieux pouvoir ?

Non ! Le hasard seul peut expliquer cela. Et le médium profite de ce hasard pour détourner l’attention des crédules.

En fait, le grillage des ampoules électriques c’est juste un problème statistique. Une ampoule électrique a une durée de vie limitée (vie de 1000 heures, donc probabilité de grillage de 1 sur 1000 lors de l’heure qui vient, soit une probabilité de 1 sur 501 environ pour qu’une ampoule qui dans un délai de 2 heures). Toutes les ampoules grillent naturellement, par usure normale. Ce qui fait que lorsqu’un charlatan prétend, lors d’une émission télévisée de grande audience, pouvoir faire griller des ampoules à distance juste en se concentrant pendant quelques instants, les quelques instants en question sont suffisants pour que sur le million de téléspectateurs regardant ladite émission, il y en aura 16 x 1000000 x (1/501) = presque 32000 qui verront en effet au moins une ampoule griller chez eux au moment d’allumer la lumière pendant le crépuscule.

Ensuite, les biais humains en matière d’expérimentation (crédulité, généralisation d’un exemple personnel, égoïsme et importance d’un cas personnel, et le fait qu’on ne retient que les exemples marquants) font le reste. Ainsi, ces 32000 personnes environ téléphonent toutes (ou presque) au même moment au standard téléphonique de l’émission qui est littéralement saturé : le charlatan devient crédible. Avec n’importe quel autre phénomène paranormal revendiqué, on peut réaliser n’importe quel autre trucage similaire. Dans la magie, il y a toujours un truc.

La crédulité n’engage que ceux qui se font fait piéger. Ce sont les pigeons qui entretiennent le charlatanisme et le business des escrocs.

Maintenant, voici un témoignage : http://forum.doctissimo.fr/psychologie/Paranormal/ampoules-grillees-semaine-sujet_15936_1.htm Une personne se dit troublée par ces coïncidences d’ampoules grillées les unes après les autres. Là encore, cela n’est qu’un phénomène statistique. Quand une maison possède 16 ampoules électriques, la probabilité de grillage d’une ampoule parmi les 16 est de 1-(1-(1/1000))^16 = 1 chance sur 63 dans un délai d’une heure. Il y a alors 1 chance sur 2 pour qu’au cours des prochaines 43 heures il y ait une ampoule parmi 16 qui grille. Au-delà de 197 heures d’utilisation des 16 ampoules, le grillage d’une ampoule devient probable à 95%. Et alors, en moyenne, parmi 16 ampoules en fonctionnement, on en remplace une toutes les 66 heures. Le délai n’est compté qu’à partir de l’instant où ces ampoules sont allumées. Quand on ne les allume pas, il n’y a pas d’usure. Bref, le grillage des ampoules électriques est statistique, ce n’est certainement pas une affaire de paranormal ni de psychologie (sauf quand on est aveuglément crédule à fond, ce qui peut être considéré soit comme une maladie mentale préoccupante, ou comme une grave paresse intellectuelle). Où est la liberté des personnes si celles-ci sont aveuglément crédules et croient absolument n’importe quoi ? Je pense que l’éducation et le recul critique doivent impérativement être un devoir. Un devoir qui garantit vraiment les libertés. Il n’y a pas de vraie liberté dans la croyance aveugle. S’informer est nécessaire.

Il faut toujours se méfier quand le hasard est caché, oublié ou nié par un charlatan ou un idéologue, comme dans le cas du créationnisme par exemple.

La science compare souvent un phénomène présumé avec le hasard, on essaie de voir alors si le phénomène se démarque significativement du hasard afin de juger de la crédibilité du phénomène. Mais à partir du moment duquel le hasard est oublié ou rejeté, on ne peut plus faire de comparaisons, et c’est la porte ouvertes aux impostures.

Cessons d’alimenter le business des charlatans, en doutant.

Pour en finir avec la clairvoyance et la télépathie

L’expérience réalisée avec les cartes de Zener vise généralement à déterminer le taux de clairvoyance ou de télépathie d’un sujet : un expérimentateur tire les 25 cartes (opaques pour éviter de voir les signes par transparence) l’une après l’autre (après les avoir bien mélangées), sans les montrer au sujet de l’expérience qui doit deviner le symbole inscrit sur chacune d’elles.

  • On a une probabilité de 1 sur 5 de deviner une carte donnée, au hasard.
  • La probabilité de deviner x cartes sur 25 est :
    P(x) = (25! / (x! * (25-x)!)) * (1/5)^x * (4/5)^(25-x)

Un taux normal de réussite (provoqué uniquement par des réponses données au hasard) est défini par ces intervalles de confiance (la moyenne est µ = 5, et l’écart-type vaut 2) :

  • 68,2% de chances pour un intervalle entre 3 et 7 réponses exactes sur 25.
  • 95% de chances pour un intervalle entre 1 et 9 réponses exactes sur 25.
  • 99% de chances pour un intervalle entre 0 et 11 réponses exactes sur 25.

On peut aisément calculer ces probabilités au moyen de la loi binomiale.

  • Faire significativement mieux que le hasard, c’est être en dehors de l’intervalle des 95%.

Vous pouvez vous tester ici :  http://www.charlatans.info/test-cartes-zener.php (moi je suis parfaitement dans la moyenne, c’est donc normal et ordinaire).

  • Pour prouver statistiquement l’existence d’un don de clairvoyance ou de télépathie, il faut obtenir au moins 10 réponses exactes sur 25 (correspondant donc à une probabilité pour que cela arrive au hasard de moins de 5%).
  • Obtenir 25 réponses exactes sur 25 (le score absolu) correspond à une probabilité de 1 sur 298 millions de milliards : il est donc impossible d’obtenir ce score-là par hasard.
  • Avec au moins 11 bonnes réponses, la probabilité pour que ça arrive au hasard est inférieure à 1%.
  • À ce jour, depuis 1920 (année de l’invention des cartes Zener), personne, absolument personne (sauf cas de fraudes ou supercheries démasquées), n’a atteint de façon objective et empiriquement honnête le score d’au moins 10 bonnes réponses sur 25. Jusqu’à preuve du contraire, la clairvoyance et la télépathie sont des mythes, des croyances sans fondement, du charlatanisme…

Alleluyah…

Cet apôtre veut imposer un repas végétarien dans les cantines scolaires… Mon avis ? Seule les sectes codifient le menu de nos assiettes…

Médicalement, un repas équilibré, qu’est-ce que c’est ? De la viande, des matières grasses, et des glucides, en quantités raisonnables, sans excès, mais sans suppression totale non plus. Quand on enlève la viande, ce n’est plus équilibré, et on met notre santé en péril.

Les choix alimentaires appartiennent à chacun, ce n’est pas l’affaire des idéologues !

Peut-on mesurer mathématiquement et objectivement les compétences des élèves ?

Avec Alfred Binet vers 1905, le concept psychométrique de QI a permis d’évaluer l’âge mental par rapport à l’âge mental moyen scolaire, afin de détecter des retards du développement. Le QI, à la base, ne mesure pas l’intelligence…

Sur un principe similaire (la courbe de Gauss), peut-on évaluer objectivement et mathématiquement les élèves d’une classe ? Je pense que oui, même si actuellement la notation par les profs est souvent subjective…

Comme exemple, je vais me baser sur le concept de QCM, un questionnaire basé sur 30 questions dont chaque question a une seule bonne réponse possible parmi 4 réponses proposées. Bref, un QCM rempli par un élève aura alors entre 0 bonne réponse (devoir noté 0/20) et 30 bonnes réponses (devoir noté 20/20).

Mais doit-on noter le QCM de façon proportionnelle, tel que le nombre de bonnes réponses est proportionnel à la notation sur 20 ? Non, et je vais expliquer pourquoi.

En fait, la conversion du nombre de bonnes réponses en note sur 20 est une loi logarithmique. En effet, à chacune des questions du QCM, il existe une probabilité de 1 chance sur 4 d’avoir une bonne réponse par question. Par conséquent, si un élève répond au hasard complètement au QCM, il aura en moyenne 7 bonnes réponses sur 30, dans ce cas on ne pourra pas lui attribuer une note de 7 sur 30, c’est-à-dire 4,66 sur 20. Obtenir un gain après avoir répondu au hasard, ce n’est pas légitime. Il faut donc prouver que l’on peut réaliser un score meilleur que le pur hasard, pour se démarquer de façon statistiquement significative. D’où une échelle logarithmique de conversion.

 

  • Entre 0 et 7 bonnes réponses sur 30, la note sera de 0/20. Dans cet intervalle, un élève connaît forcément les bonnes réponses mais aura choisi délibérément de mettre des réponses fausses. Même si c’est rare que ça arrive de faire zéro bonne réponse au hasard, sauf si l’élève ne répond pas du tout aux questions, c’est éliminatoire.
  • Avec 7 bonnes réponses, c’est le score le plus fréquent obtenu en moyenne par le hasard. Aucun point n’est attribué : 0/20. La note devient supérieure à zéro sur 20 au-delà de 7 bonnes réponses au QCM. C’est logique.
  • À partir de 12 points sur 30, la différence devient significative statistiquement (p-value = 0,05, distanciation de 2 écarts-types, et d’après la loi binomiale), auquel cas la note sera la moyenne : 10/20. L’écart-type est égal à 2,37.
  • À partir de 14 ou 15 points sur 30,  une nouvelle significativité (p-value = 0,01, distanciation de 3 écarts-types, et selon la loi binomiale), auquel cas la note sera de 12/20.
  • Enfin, avec 30 points sur 30, la note sera évidemment de 20/20. Mais la fonction dans son ensemble dans l’intervalle [7 ; 30] est logarithmique.
  • Équation approximative : note sur 20 = 13,51 * ln (0,1561 * bonnes réponses).
  • Il est possible d’ajuster autrement la notation : on pourrait par exemple attribuer 8/20 pour 12 points sur 30, mais cela ne changera que peu la courbe. Reste à définir correctement ce seuil. Le but de l’évaluation ici, c’est de voir l’effort fourni par rapport au hasard.

 

Voila ce que ça donne graphiquement, en première approximation :

 

L’intérêt d’un QCM correctement calibré est de mesurer le plus fiablement possible la quantité d’effort intellectuel par rapport à ce qu’on obtiendrait au hasard

Tu joues au hasard ? Donc tu n’as fait aucun effort, alors zéro pointé… Un peu d’effort afin de s’éloigner du hasard ? Tu gagnes alors des points. Mais plus l’effort sera important, plus ça devient dur d’essayer d’atteindre 30 bonnes réponses aux 30 questions du QCM (croissance logarithmique). C’est simple. Quel meilleur arbitre existe t-il de mieux que le hasard et de se mesurer contre lui ? C’est mieux que la subjectivité des profs dont les notes données à un élève varient sensiblement d’un prof à l’autre, même quand l’élève ne change pas sa méthode de travail (pour une même matière, aucun prof ne note pareil qu’un autre prof). Le travail ne se mesure que par le seul mérite, par l’effort de l’élève. Établir des quotas arbitraires et aveugles pour favoriser les élèves à avoir le Bac, de façon à ce qu’un maximum d’élèves aient le Baccalauréat, ce n’est pas une évaluation objective, ça ne veut rien dire. Il faut évaluer les compétences des élèves pour ce qu’elles valent réellement. Les mauvaises notes ne servent ni à juger ni à punir, mais à inciter à progresser grâce à des efforts réguliers (cela s’apprend, et peut ainsi devenir une bonne habitude). La réussite ça ne fonctionne pas autrement.

Détection mathématique de triche dans une classe d’école

Je propose un exercice inédit que j’ai inventé.

On suppose que la distribution des notes dans une classe de N élèves est une courbe gaussienne normale centrée sur une moyenne. Ces notes forment une courbe gaussienne classique qui reste habituelle, sans changements de notes majeurs.

Je pose m=intégrale de x=a à x=b de (1/(k*(2*pi)^0.5)) * e^(-(x-µ)²/(2*k²)).

m est ici une valeur entre 0 et 1, c’est la proportion d’élèves ayant une note comprise entre a et b, selon un écart-type k.

Il peut arriver que les élèves se mettent à travailler mieux afin d’améliorer leur note, ce qui modifierait du coup la courbe gaussienne. L’intérêt est d’évaluer la variation par rapport à la courbe habituelle.

Supposons un cas où la moyenne de la classe est µ = 14,01 (sur 20), lors du dernier trimestre par exemple. Son écart-type est de k = 3,76. On obtient alors une courbe gaussienne particulière, véritable signature instantanée de la classe.

On va ensuite exposer une problématique. Lors du trimestre suivant : parmi une classe de N élèves, x élèves obtiennent chacun une note supérieure ou égale à 18. La question : y a t-il eu triche ?

Probabilité pour que x élèves aient plus de 18 sur 20 : on calcule T = l’intégrale de x=18 à x=20 de (1/(3,76*(2*pi)^0.5)) * e^(-(x-14,01)²/(2*3,76²)) avec un écart-type k = 3,76.

La probabilité devient P = (N! / ((N-x)!*x!)) * T^x * (1-T)^(N-x).

Si la probabilité est inférieure à 0,05, on peut légitimement soupçonner une fraude. Dans notre exemple ci-dessus, si x est supérieur ou égal à 5, on peut avoir des doutes. Parmi ceux qui ont eu plus de 18/20, il y a des fraudeurs mais il peut y avoir aussi ceux qui ont mérité leur note. On peut détecter la fraude mais on ne peut pas identifier les tricheurs, le meilleur choix est de coller un zéro à tout le monde, comme sanction, on est sûr alors d’avoir atteint les tricheurs, même si on fait des victimes collatérales…

  • Voici un autre débat : la suppression des notes à l’école.

Certains pédagogues ont l’idée saugrenue de supprimer la notation des élèves… Supprimer les notes, c’est tromper les élèves. Et surtout, comment ferait-on pour détecter la probabilité de triche lors d’un examen de mathématiques par exemple ?

Le but des mauvaises notes quand on en reçoit, c’est d’identifier ses propres erreurs, de se remettre en question dans le but de s’améliorer. Je n’ai pas toujours été bon en maths autrefois (il y a bien longtemps), et une mauvaise notation contraint à redoubler d’efforts pour progresser. Quand on veut comprendre, on finit toujours par y arriver, on le peut. Les efforts réguliers produisent toujours une progression. Se dire « Je suis nul en maths » c’est en fait un effet nocebo (contraire du placebo), une méthode Coué avec des effets délétères et fatalistes. Si on ne note plus les élèves, on ne fera que masquer et nier un problème de plus. L’école est nivelée par le bas, et bientôt il ne finira par ne plus rien rester du tout !

  • La notation sur 10 ou sur 20 offre une évaluation fiable : elle est le meilleur critère pour évaluer le travail de l’élève et permet aux parents de savoir où en est leur enfant. La note est la mesure d’une compétence. Elle n’a pas pour seule vocation de « juger » un élève ni même de les comparer entre eux. Elle a aussi pour avantage d’être simple, en comparaison des autres systèmes d’évaluation par « acquisition de compétences » avec des codes de couleurs (rouge, orange, jaune, vert), de lettres (ABCD) ou de chiffres (de 1 à 4). Avec ces systèmes alternatifs, il serait plus complexe pour les enseignants de mesurer ce qui est acquis et ce qui ne l’est pas. Il y aurait aussi un risque que ces barèmes aboutissent à trop de laxisme. Les notes sur 10 ou sur 20 peuvent inciter les élèves à travailler pour progresser, à condition que les professeurs précisent ce qu’il faut améliorer et encouragent les élèves. A l’école, la sélection est naturelle, elle ne dépend que des efforts des élèves, un prof ne donne pas des mauvaises notes par injustice ni par sadisme. Moi je le dis clairement : niveler l’école selon les désirs des élèves ou celui de leurs parents, pour leur faire plaisir, ça ne les aide absolument pas ! Le progrès scolaire n’est possible qu’avec une contrainte ou une difficulté, une bonne note ça doit se mériter. Le remède contre l’échec scolaire ne tient qu’en un seul mot : le travail, aussi bien de la part des profs que celle de leurs élèves. La question à se poser : le problème est-il la notation elle-même ou les échecs qu’elle révèle ?

 

Exercice de maths

  • Une baignoire contient 140 litres. Le robinet d’eau chaude que alimente a un débit de 15 L par minute. En utilisant seulement le robinet d’eau froide, le remplissage de la baignoire prend 3 minutes de plus qu’avec les deux robinets. Calculer le débit d’eau froide. 

 

Ma solution : 

Soit D = débit d’eau froide, et t = temps de remplissage de la baignoire.

Alors (D+15)*t = D(t+3) = 140.

Je trouve D = 20 litres par minute, et t = 4 minutes.

 

Exercice de maths proposé aux bacheliers écossais

  • Un exercice de mathématiques au Bac en Ecosse a posé tellement de difficultés aux candidats au bac écossais que le barème de l’épreuve a dû être revu…

Jugeant l’exercice du crocodile trop difficile au même titre que l’ensemble de l’examen, les candidats écossais au Higher Maths exam, l’équivalent de l’épreuve de mathématiques du baccalauréat français, ont lancé une pétition en mai 2015. Intitulée « Expliquez-nous pourquoi l’examen de mathématiques a été élevé à un niveau impossible », elle a recueilli plus de 11 000 signatures, aboutissant à un abaissement de la note requise lors de cette épreuve pour obtenir le diplôme.

Je vais démontrer ici pourquoi le niveau en maths a vraiment baissé par rapport à autrefois, par l’examen analytique du problème. C’est catastrophique au même titre que ce qui se passe en France : le nivellement par le bas.

Un exercice de niveau Terminale, croyez-vous ? Non, moi je dirais plutôt de niveau 4e de collège… On va voir pourquoi.

L’exercice demande d’estimer en combien de temps le crocodile atteindra le zèbre, selon s’il se déplace dans l’eau ou sur terre.

« Un crocodile a repéré une proie située à 20 mètres de lui sur la berge opposée d’une rivière. Le crocodile se déplace à une vitesse différente sur terre et dans l’eau. Le temps que met le crocodile à atteindre le zèbre peut être réduit s’il traverse la rivière en visant un certain point P, placé à x mètres du point de départ sur l’autre rive (voir schéma).

Le temps T nécessaire pour faire le trajet est donné par l’équation indiquée ci-dessous (en dixièmes de seconde).

Calculer en combien de temps le crocodile rejoindra le zèbre uniquement à la nage.

Calculer en combien de temps le crocodile rejoindra le zèbre s’il coupe la rivière au plus court.

Entre ces deux extrêmes, il existe une valeur de x qui minimise le temps nécessaire. Trouver cette valeur de x et en déduire ce temps minimum. »

 

Tout d’abord, pour résoudre le problème, on va examiner l’équation et le schéma.

Une vitesse c’est une distance divisée par un temps. Donc le temps est égal à une distance divisée par une vitesse.

Vous remarquez que le trajet dans la rivière est une hypoténuse de triangle-rectangle. Je pose R la largeur de la rivière, puis L la longueur de l’hypoténuse, et on a x (déjà défini) qui est le 3e côté.

On sait avec Pythagore que R² + x² = L². C’est classique.

Je pose T1 tel que T1 = L / V1, où T1 est le temps parcouru exclusivement dans la rivière, et où V1 est la vitesse du crocodile dans la rivière.

Je pose T2 tel que T2 = (20 – x) / V2, où T2 est le temps parcouru exclusivement sur terre, hors de la rivière, et où V2 est la vitesse du crocodile sur la terre ferme.

Je pose T(x) = T1 + T2, pour avoir T(x) qui est la durée total des trajets.

Mais aussi, on a T1 = L / V1 = (x² + R²)^(1/2) / V1. On obtient donc la forme T(x) = [(x² + R²)^(1/2) / V1] + [(20 – x) / V2] qui est exactement la forme de l’équation de l’énoncé : T(x) = 5(36+x²)^(1/2) + 4(20-x).

Pour le calcul du temps le plus court, il est alors exclu que le crocodile se déplace uniquement en rivière, ou uniquement sur terre, il y a obligatoirement une étape en rivière et une étape sur terre ferme.

Pour calculer le temps T(x) le plus court, on remarque que la fonction atteint un point x où T est minimum, alors on calcule la dérivée dT(x)/dx = 0, et je trouve x = 8 mètres. Pour les autres valeurs de x, le temps est plus long.

Si on pose x = 20 mètres, alors le crocodile ne fait que nager, sans étape sur terre ferme. Une partie  de l’équation s’annule, et on aura T(x) = (x²+R²)^(1/2) / V1 = 5(36+20²)^(1/2) = 104,4.

Si on pose x = 0 mètre, alors le crocodile ne fera que marcher sur terre ferme, hors de la rivière (excepté le trajet R), et T(0) = 110.

Tandis qu’avec x = 8 mètres, on aura le temps le plus court : T(8) = 98.

J’ai répondu aux trois questions de l’exercice, cela n’a pris que quelques minutes… Affirmer que l’exercice est insoluble, c’est se foutre du monde, vraiment !

Au fond, le problème n’est pas les maths. Le problème des élèves est simple : ils ne savent pas lire un énoncé, par incompréhension de leur propre langue maternelle, et aussi parce qu’ils n’ont pas appris à réfléchir et à raisonner. Sans ces clés, on ne peut rien produire de bon en maths.

Peut-être que certains trouveront que j’exagère. Non, je suis sérieux.

  • Autre preuve : un exercice ci-dessous datant de 1950, à l’épreuve du certificat d’études, en France, et destiné à des jeunes de 13 ou 14 ans.

« La distance Paris-Reims est de 155 km par le rail. Le train de marchandises Paris-Reims démarre de la gare de l’Est à 8h30 et roule à la vitesse moyenne de 60 km/h. Un express part de Reims en direction de Paris à 9h15 et roule à la vitesse moyenne de 90 km/h. A quelle heure se croiseront-ils et à quelle distance de Paris ? »

Solution : les trains se croisent à 9h59 à 89 km de Paris. La solution tient en une équation assez simple.

Quand on donne cet exercice à des élèves de Terminale, il y a des surprises… Certains n’y parviennent pas. C’est une réalité propre à notre époque. C’est catastrophique…

 

 

Citation du jour

  • « Tout est hasard dans le monde, pourvu que l’on donne ce nom à un ordre que l’on ne connaît point. » (Fontenelle)

L’imposture des QI de célébrités dans les médias

Voici un exemple d’article (parmi de nombreux autres) qui relate les QI de célébrités : http://www.sympatico.ca/actualites/decouvertes/plus-grands-qi-1.1484724

Je vais montrer pourquoi souvent les médias racontent n’importe quoi en s’emmêlant les pinceaux…

Nous connaissons tous les fameux tests de QI. Cependant, il existe deux échelles différentes de mesure du QI : celle de Wechsler (la plus utilisée), et celle de Cattell. L’échelle de Wechsler est basée sur un QI moyen de 100 avec un écart-type de 15 points. L’échelle de Cattell est basée aussi sur un QI moyen de 100, mais avec un écart-type de 24 (ce qui n’est pas du tout pareil ni équivalent).

Or, dans l’article cité en lien ci-dessus, je cite : « la majorité de la population se retrouve dans la zone de 85 à 115 points de QI ». Remarque : c’est seulement vrai pour le test de Wechsler, mais faux pour le test de Cattell (car entre 76 et 124).

Ensuite, en regardant le QI des personnalités citées, on voit que les QI dépassent la valeur 175, et vont même jusqu’à 225. Or, le test de Wechsler s’échelonne jusqu’à 175 points (jusqu’à 195 ou 200 selon d’autres sources), tandis que l’échelle de Cattell va jusqu’à 220. On peut vérifier ça en examinant l’intéressante page du site Douance via un tableau de conversion : http://www.douance.org/qi/tabqi.html

Visiblement, quand on lit sur le web de nombreux sites relatif au QI, les journalistes s’embrouillent en mélangeant le test de Wechsler et celui de Cattell. Et s’arrangent même pour dépasser le QI maximum possible, mais bon…

Après avoir examiné le tableau de conversion du site Douance : http://www.douance.org/qi/tabqi.html
j’ai pu établir que le calcul de conversion d’un test de QI à l’autre suit une loi linéaire, si on considère que le tableau est exact. En effet, si on pose W = QI de Wechsler et C = QI de Cattell, je trouve que :  C = 1,6 W – 60. Par conséquent, W = (C+60) / 1,6.

Bref, lorsque les médias ne précisent pas si les QI mentionnés sont de l’échelle de Wechsler ou celle de Cattell, les infos sont donc à prendre prudemment avec des pincettes, surtout quand ils mélangent à tort les deux concepts (une marge normale de Wechsler [68,2% de la population] par-ci, puis des QI de Cattell par-là…)

Car sans référentiel, les chiffres égarés ne veulent rien dire du tout et n’ont pas de sens !

Pareil quand les médias évoquent le QI d’Albert Einstein ou celui de Newton ou Galilée. C’est n’importe quoi. Les premiers tests psychométriques de QI furent inventés en 1905 (pas avant !!!) par Alfred Binet pour détecter les retards du développement cérébral par rapport à une moyenne d’âge d’enfants scolarisés. Mais les tests de QI contemporains pour adultes sont postérieurs (de peu) à la mort d’Einstein (1955) ! Einstein n’a jamais passé de test de QI. Quant à Isaac Newton et Galilée (17e siècle), c’était longtemps avant que le concept de QI soit inventé ! On ne connaît PAS le QI d’Einstein ni ceux de Newton et Galilée, on ne le saura jamais, il est donc impossible de faire des comparaisons. On ne connaîtra jamais non plus le QI du génial mathématicien Ramanujan, mort en 1920.

Les médias racontent souvent des inexactitudes, et dans de nombreux domaines, pas seulement sur le concept de QI… Soyez sceptiques, soyez critiques, soyez analytiques.

 

 

Enseignement et nivellement par le bas

L’école fabrique des crétins. Avant on faisait des maths, maintenant on parle de people et de sport, et de slogans publicitaires… C’est ça l’école actuelle ?

Le QI baisse. Pour moi, le QI n’est pas inné, la baisse du QI est l’indice d’un manque de travail, de réflexion et d’effort. Certains attribuent la baisse du QI à des facteurs fatalistes, comme par exemple les perturbateurs endocriniens. Il faut arrêter de s’inventer des excuses pour se dédouaner d’un sérieux problème… Le problème c’est l’enseignement.

La preuve : la Chine est polluée comme nous par les pesticides (peut-être même pire en l’absence de normes environnementales), mais le QI des chinois a augmenté !

Bref, les journalistes publient encore et toujours des torchons politiquement corrects. Le niveau des programmes à l’école, et l’influence abrutissantes de la TV sont des causes évidentes d’altération de l’intelligence.

Le niveau ne baisse pas, il s’effondre. Monsieur Brighelli a raison :

L’intelligence des arbres, encore un mythe

Vu sur un magazine TV :

Je cite : « Les arbres sont dotés d’une véritable forme d’intelligence ».

Cela m’étonnerait… Les arbres n’ont aucun système nerveux… Les arbres émettent des odeurs peut-être mais ils ne sont pas intelligents, ils sont biologiquement incapables de raisonner.

Je cite : « Indispensables à notre survie, ils sont aussi nos meilleurs alliés face au réchauffement climatique ».

Ah ! La phrase discrète que les médias ne manque pas de glisser systématiquement. Encore le réchauffement climatique… Et la pollution, et l’épuisement des ressources naturelles, ça ne compte pas ?…

Les voitures électriques en France, une utopie ?

Est-il réaliste de produire des millions de voitures électriques en France dans le contexte de la production électrique totale annuelle française ?

  • En moyenne, une voiture parcoure 15 000 km par an. (source = http://www.linternaute.com/auto/magazine/enquete-en-ligne/enquete-en-ligne-vous-et-votre-voiture/une-moyenne-de-15-000-km-an.shtml)
  • Une voiture Peugeot 308, la plus sobre par exemple, consomme 6,7 L d’essence (octane) par 100 km. (source = http://www.fiches-auto.fr/essai-peugeot/motorisations-449-moteurs-consommation-peugeot-308.php)
  • La combustion de l’octane correspond à 44,307 MJ/kg, soit 31,15 MJ par litre d’octane, sachant que 1 kWh = 3,6 MJ. (source = https://jpcmanson.wordpress.com/2011/12/06/thermochimie-etude-de-divers-combustibles/)
  • Par conséquent, une voiture (comme la Peugeot 308 la plus sobre) consomme 31350 MJ d’énergie par an.
  • Il y a actuellement 38,4 millions de voitures en circulation en France, donc si nous remplacions toutes ces voitures à combustion par des voitures électriques, il faudrait pouvoir les alimenter en électricité avec une production électrique suffisante d’environ 334,4 milliards de kWh. Or la production électrique totale en France (en 2015) est de 416,8 milliards de kWh. Il faudra donc doubler la production électrique totale actuelle afin de pouvoir assurer l’alimentation électrique des batteries de toutes ces automobiles, tout en continuant aussi de fournir l’électricité nécessaire aux autres besoins… Mais certains veulent diminuer la part du nucléaire de moitié d’ici 2025. (source = http://www.leparisien.fr/environnement/nucleaire-valls-confirme-la-reduction-de-moitie-en-2025-12-02-2015-4527471.php)

 

Ni la filière éolienne ni la filière photovoltaïque ne pourront pas assurer les besoins des voitures électriques, c’est irréaliste… N’importe quoi…

Liste de concepts liés aux pseudo-sciences et l’irrationnel

Voici une liste de mots-clés d’articles Wikipedia relatifs aux pseudo-sciences, sous réserve d’erreurs ou d’omissions :

Acupuncture
Affaire Bogdanoff
Agriculture biodynamique
Alien Theory
Alignement de sites
Amaroli
Analyse transactionnelle
Anatoli Fomenko
Anthroposophie
Antigravité
Astroarchéologie
Astrologie
Astrosociobiologie
Atlas de la Création
Aura (parapsychologie)
Auriculothérapie
Barbara Ann Brennan
Bernard Werber
Biodynamie
Biofiltre
Biokinergie
Bion (organique)
Biophoton
Biorythme
Biorésonance
Biosphère II
Bioénergétique
Boule lavante
Bracelet à hologramme
Burkhard Heim
Canular Apollo 20
Cartomancie
Catalyseur d’énergie de Rossi et Focardi
Cercle de culture = Agroglyphes
Champ morphogénétique
Channeling
Chasse au fantôme
Chembuster
Chemtrail
Chirologie
Chiropratique
Chirurgie psychique
Chromathérapie
Clairaudiance
Clairvoyance
Cloudbuster
Communication facilitée
Communication intuitive
Complexité irréductible
Contestation de la responsabilité du VIH dans le sida
Convergence harmonique
Corps éthérique
Cristallisation sensible
Cryptobotanique
Cryptozoologie
Créationnisme
Créationnisme Jeune-Terre
Dentisterie holistique
Dessein intelligent
Détoxication
Développement personnel
Dianétique
Divination mathématique
Drainage lymphatique manuel
Ectoplasme (parapsychologie)
Électrolipolyse
Élixirs floraux de Bach
Étiopathie
Effet Allais
Effet CREIL
Emotional Freedom Technique
Enfant indigo
Ernst Lecher
Exobiophilie
Expérience de mort imminente
Eye movement desensitization and reprocessing
Feng shui
Fondation John Templeton
Fritjof Capra
Fusion froide
Génodique = Protéodie
Georges Lakhovsky
Gluten
Graphologie
Géobiologie (radiesthésie)
Halothérapie
Hans Hörbiger
Homéopathie
Homo sapiens. Une nouvelle histoire de l’homme
Influence lunaire
Injection d’eau dans les moteurs
Institut de recherche sur les expériences extraordinaires
Inédie
Iridologie
Isopséphie
Jacques Benveniste
Jacques Bergier
Jean-Émile Charon
John Hagelin
Journalisme jaune
Judy Zebra Knight
Junk science
Karl H. Pribram
Ken Wilber
Kinésiologie
Kinésiologie appliquée
La Bible : le Code secret
Le centième singe
Lithothérapie
Magnétiseur
Magnétisme animal
Magnétothérapie
Masaru Emoto
Mayanisme
Mesure subjective
Métapsychique
Morphopsychologie
Moteur Pantone
Moteur à eau
Mysticisme quantique
Médecine anthroposophique
Médecine non conventionnelle
Médecine quantique
Méditation transcendantale
Médium (spiritualité)
Mémoire de l’eau
Méthode Feldenkrais
Méthode Silva
Morphobiologie
Naturopathie
Nexus (revue)
Nibiru
Nombre d’or
Numérologie
Oniromancie
Orgone
Orgonite
Para-science
Paranormal
Parapsychologie
Phénomène de voix électronique
Photographie Kirlian
Phrénologie
Physiognomonie
Physique synergétique
Pierres d’Ica
Plante dépolluante
Pouvoir des pyramides
Prana
Prescience
Programmation neuro-linguistique
Pseudohistoire
Psi (parapsychologie)
Psychanalyse
Psychogénéalogie
Psychokinèse
Psychologie populaire
Psychologie transpersonnelle
Pyramidologie
Pédagogie Steiner-Waldorf
Quantic Potential Measurement
Que sait-on vraiment de la réalité !?
Radiesthésie
Rebirth
Régime alcalin
Reiki
Robert Charroux
Rudolf Steiner
Rumpologie
Rupert Sheldrake
Réflexologie
Réseau Hartmann = Ernst Hartmann
Science chrétienne
Sensibilité électromagnétique
Sirius C
Sophrologie
Source d’ions hydrogène négatifs
Sourcier
Supplément alimentaire minéral miraculeux (MMS)
Syndrome du vrai croyant
Système de classification de Hynek
Tarot divinatoire = Tarologie
Théorie de Heim
Théorie de la corrélation d’Orion
Théorie des anciens astronautes
Théorie psychanalytique de la dépression
Théorie vérificationniste de la signification
Théories de la Terre creuse
Thérapie de conversion
Thérapies des fascias
Thérapie par aversion
Toucher thérapeutique
Triangle des Bermudes
Trofim Denissovitch Lyssenko = Lissenkisme
Télépathie
Ufologie
Ummo
Unité Bovis
Université interdisciplinaire de Paris
Vin biodynamique = Viticulture biodynamique
Voyage astral
Voyance
Weleda
Zecharia Sitchin

L’idéologie postmoderniste

Vu sur Facebook :

La foi naïve en la science a donné naissance à une monstruosité idéologique en réaction : le relativisme total. Aujourd’hui nous en sommes arrivé à un point où même la science est considérée comme égale ou inférieure aux récits et aux mythes par certains intellectuels.

Le résultat est un nivellement vers le bas de l’esprit critique, du jugement critique et de l’exigence épistémologique. Croire que tous les points de vue se valent ne vaut pas mieux que croire que l’on détient la vérité.

Citation du jour

  • Savoir, et ne point faire usage de ce qu’on sait, c’est pire qu’ignorer.
    Alain (Propos sur l’éducation, p.176, P.U.F 1969)
  • Le doute n’est pas au-dessous du savoir, mais au-dessus.
    Alain (Propos sur l’éducation, p.147, P.U.F 1969)

Sujets du bac de philo 2017

On connaît à présent les sujets du bac de philosophie 2017 :

  • Suffit-il d’observer pour connaître ?
  • Tout ce que j’ai le droit de faire est-il juste ?
  • La raison peut-elle rendre raison de tout ?
  • Une œuvre d’art est-elle nécessairement belle ?
  • Défendre ses droits, est-ce défendre ses intérêts ?
  • Peut-on se libérer de la culture ?
  • Y a-t-il un mauvais usage de la raison ?
  • Pour trouver le bonheur, faut-il le rechercher ?

 

De l’esprit critique sur Wikipedia

Wikipedia est souvent controversé. Mais c’est facile de critiquer quand on ne prend aucune initiative. Wikipedia est à améliorer. Seulement environ 16 000 contributeurs sur les 2 millions et demi d’inscrits ont contribué lors des 30 derniers jours. C’est peu.

J’ai pris l’initiative de participer au projet « Scepticisme » sur Wikipedia.

Face à l’article « Alignement de sites » (https://fr.wikipedia.org/wiki/Alignement_de_sites) qui comportait une croyance mystique déterministe selon laquelle les alignements avaient une signification profonde, j’ai alors créé un nouvel article, intéressant, que j’ai traduit depuis l’anglais afin d’apporter un éclairage scientifique et sceptique :

https://fr.wikipedia.org/wiki/Alignement_de_points_aléatoires

Bref, les alignements de points générés aléatoirement peuvent facilement se produire, sans qu’il y ait un sens mystique. Il n’y a que du hasard. Quelques mois plus tôt, j’avais déjà parlé de ces alignements, mais cette fois on connaît les équations mathématiques en détail.

Mais l’anecdote est un cas parmi d’autres. Tout Wikipedia a besoin d’y faire le ménage, il faut partager les points de vue critiques autant que possible, et la besogne reste longue et difficile. C’est un travail d’équipe.

Wikipedia

Contribuer à Wikipedia est une mission de service public importante pour informer les citoyens de façon pertinente et utile. Dans ce monde moderne et du tout numérique, un traitement critique des pseudosciences (plutôt qu’une promotion aveugle) est nécessaire.

Le niveau d’alphabétisation scientifique de la population est d’une importance cruciale dans notre société. Les individus font plus facilement des choix raisonnés s’ils peuvent éclairer leurs décisions avec des connaissances fiables. Pour cela, ils doivent savoir estimer la fiabilité des informations mises à leur disposition. Notre devoir a pour vocation de donner au public des clés de compréhension du monde basées sur des théories et des faits solidement étayés plutôt que de le flatter dans le sens de ses croyances irrationnelles.

Hélas, on ne peut que constater l’importance du temps de médiatisation voué à promouvoir ou à présenter sans esprit critique des dizaines de pseudosciences et de médecines non conventionnelles (c’est-à-dire des « médecines » dont les vertus thérapeutiques sont ou bien réfutées ou bien encore à prouver). Sans analyse critique, les allégations des pseudo-experts sont reçues comme des vérités validées par le service public et ajoutent un argument d’autorité (comme « vu à la TV ») dans l’arsenal de personnes incapables de prouver la justesse de leurs thèses et qui vivent donc de la crédulité des gens.

Les journalistes devraient être parmi les premiers à se former pour comprendre la démarche scientifique et connaître les biais cognitifs qui leur font écrire des articles. On ne peut que constater des lacunes importantes au sujet de la manière dont sont produites les connaissances scientifiques et sur le bon usage du doute méthodologique. Vigilance…

Wikipedia est l’outil idéal pour agir directement sur des textes qui sont d’une grande visibilité dans les moteurs de recherche.

Sur la vitamine C

J’ai examiné le sujet du Bac 2003 (métropole) de physique/chimie.

L’encadré d’introduction de l’énoncé m’a interpellé :

En réalité, le rôle soi-disant antiseptique et anti-cancer de la vitamine C n’a jamais pu être démontré. Il s’agit d’une croyance tenace, même le prix Nobel Linus Pauling y croyait…

 

  • Référence : http://www.thierrysouccar.com/blog/mega-doses-de-vitamine-c-cancer-et-sante-la-fin-de-lhistoire

 

 

Critique de Charon

Il est louable d’associer science et philosophie. Il est cependant dangereux de mêler la science avec la pseudoscience et le mysticisme.

Jean Charon disait que le monde n’est pas inerte et que l’Univers est entièrement vivant. « Je crois que l’Univers est sacré, mais je sens que l’objectif de cet Univers est de se faire connaître d’abord ». Sa priorité était d’expliquer comment est faite la Matière, qu’il appelait  » la psychomatière « , considérant qu’elle est à la fois matière et esprit. Pour cela, il a proposé un modèle représentant à la fois la partie Matière et la partie Esprit, l’éon, un élément matériel qui serait porteur de l’Esprit et de la conscience. On est alors là dans le domaine de la croyance, pas dans celui de la science. On est alors dans le déni de la réfutabilité, à travers une dénaturation de la physique quantique.

La vie se manifeste à travers des structures matérielles appelées organismes vivants, ou êtres vivants, reconnaissables par la grande complexité de leur structure interne et leur activité autonome ainsi que la capacité de se reproduire. Ce que ne sont pas les planètes, les gaz, les métaux… Le mythe du fluide vital s’est effondré lorsqu’on a découvert comment synthétiser des molécules biochimiques, comme l’urée.

L’hylozooïsme est un concept philosophique (la matière dotée de vie), mais dans les faits, l’univers n’est pas omni-vivant. Il n’y a pas de but dans l’évolution et la cosmologie.

La vie et la conscience émergent de la matière inerte, par l’organisation de matière complexe (neurones, tissus cellulaires différenciés).
Il est hasardeux de philosopher sur le vivant avec la méconnaissance de la biochimie par exemple.

Il y a une différence entre l’expérimentation du réel, et élever un concept philosophique irréfutable comme dogme.

Que penser de Charon ? La « relativité complexe » dont il est le pionnier, et surtout les conséquences qu’il en tire, doit bien faire hurler de rire les gens compétents sur le sujet. Quand il s’est mis à expliquer, après des dizaines de pages de calculs, que tout cela démontrait que l’électron avait des propriétés « psychiques », on se dit qu’on perd son temps en pareilles élucubrations mystiques. Charon voulait donner une base physique aux idées de Teilhard de Chardin, mais c’est foiré… Pierre Teilhard de Chardin (qui fut un philosophe, théologien et paléontologue français ; il avait une conception spiritualiste du cosmos ; il a récupéré des sciences hors de leur contexte comme la théorie de l’évolution pour inventer le concept de point Oméga qui serait le but ultime de l’évolution à travers les concepts de noosphère et de Christ cosmique, mais la théorie de l’évolution n’a aucun déterminisme car chaque étape évolutive des espèces est imprévisible ; il s’agit d’un cas criant d’amalgame idéologique entre la science et la religion).

Pour revenir à la relativité complexe, Charon postule le doublement du nombre de dimensions de l’espace-temps de Minkowski utilisé par Einstein (soit 2 x 4 = 8 dimensions) en ajoutant aux 4 dimensions réelles (3 d’espace et 1 de temps), 4 dimensions supplémentaires affublées de i, l’unité imaginaire qui donne -1 élevée au carré, à l’instar du plan complexe, en maths, qui possède deux fois plus de dimensions qu’une simple droite matérialisant l’ensemble des nombres réels. L’espace réel, visible, est donc d’un seul coup doublé d’un espace qu’il qualifie d’« imaginaire », invisible, dont il démontre certaines propriétés (à défaut d’en démontrer l’existence).
Tout d’abord, les lois de l’entropie s’inversent, et cet espace devient « négentropique » (à entropie négative). Dans notre monde – pour donner une interprétation imagée la deuxième loi de la thermodynamique – c’est le bordel et le désordre va croissant, alors que dans le monde imaginaire, l’ordre s’organise tout seul et va croissant. Charon annonce que les particules élémentaires ont leur reflet dans ce monde imaginaire, qu’il appelle des éons. Il n’en faut pas plus pour en déduire que ces éons, générateurs d’ordre et en liaison constante depuis le big-bang avec le reste de l’Univers, sont le siège de la conscience, de la mémoire et de l’Esprit, cette chose invisible. On reste confondu devant un tel ramassis de new age. Tout le discours est enjolivé de jolies courbes et équations relativistes supposées apporter de la crédibilité, via un bagage mathématique sérieux, à ce tissu d’âneries.

C’est donc à prendre avec des pincettes : ce n’est scientifiquement pas crédible, et je croyais que, parallèlement, la philo était l’art de raisonner.

Du côté de la vulgarisation scientifique, je conseillerais plutôt Feynman et Stephen Hawking comme critère de crédibilité.

Citation du jour

  • Trois bougies repoussent les ténèbres : la vérité, la connaissance et les lois de la nature.   (proverbe celtique)

Amnistie ou innocentiation ?

Si on y réfléchit, un gouvernement qui accorde l’amnistie aux homosexuels, c’est un peu comme si l’Allemagne d’aujourd’hui prétendait amnistier les Juifs assassinés par les Nazis à Auschwitz…

En quoi le Royaume-Uni est-il choquant ?

Seuls les individus qui ont été légitimement condamnés peuvent prétendre avoir droit à une amnistie ou à recevoir un pardon.

La discrimination homophobe et des traitements inhumains, c’est une injustice, cela n’a rien à voir avec la justice, ni avec l’amnistie, ni le pardon.

Car prononcer l’amnistie revient à encore accorder une valeur à une « loi » injuste. C’est le comble.

Ce n’est pas à une amnistie que Alan Turing ou Oscar Wilde (et des dizaines de milliers d’autres victimes) ont droit, mais à une réhabilitation totale, par une annulation d’une « loi » injuste.

Amnistier les gays condamnés, c’est s’attribuer abusivement encore quelque pouvoir légitime pour juger de la sexualité d’autrui.

Une amnistie ne contredit pas la décision judiciaire et elle n’efface pas l’historique pénal d’une personne. Il aurait mieux valu d’innocenter les gays injustement condamnés.

  • C’est au Royaume-Uni de demander pardon à genou auprès des homosexuels, ce n’est pas aux homosexuels de s’excuser d’être ce qu’ils sont afin de recevoir un « pardon »…
  • Amnistier quelqu’un, c’est lui pardonner sa « faute », mais c’est toujours le définir comme fautif, alors que ce sont plutôt les autorités de l’époque qui sont entièrement responsables de ces traitements inhumains contre les gays…
  • Le Royaume-Uni avait condamné Alan Turing, cela a poussé celui-ci au suicide. Les responsables des mauvais traitements et de la mort de Turing sont impardonnables…

Théorie du genre

Sa sainteté le pape accuse les manuels scolaires de propager la théorie du genre.
Il dit que « c’est contre nature, un endoctrinement, une colonisation idéologique »

Mais le catholicisme, qu’est-ce que c’est ?
C’est une doctrine qui interdit aux curés de se marier et de fonder une famille. Sans oublier non plus les scandales de crimes sexuels. C’est contre-nature

Et les peuples des Amériques et d’Afrique qui ont été convertis de force ces derniers siècles dans la violence et la peur ? Et le dogme de l’infaillibilité du pape ? N’est-ce pas là une colonisation idéologique ?

Le catholicisme est mal placé pour donner des leçons.

Retire la poutre que tu as dans ton œil avant de retirer la paille qui est dans l’œil de ton prochain…

La théorie du genre, c’est quoi concrètement ? C’est un champ d’études universitaires né dans les années 1960, en parallèle du développement du féminisme. Son propos : étudier la manière dont la société associe des rôles à chaque sexe. Exemples : « pourquoi les hommes font moins le ménage », « pourquoi une femme mécanicienne ou un homme sage-femme paraissent insolites », etc. C’est donc l’étude de la hiérarchie entre les sexes afin de dénoncer des inégalités et les stéréotypes entre genres.

Mais il n’existe pas de « théorie » au sens idéologique ou scientifique du terme, pas de programme secret ou caché visant à « manipuler » les enfants, ni de situations où l’école chercherait à habiller les garçons en filles…

L’« idéologie du genre » est une rumeur venue des Etats-Unis et des groupes ultraconservateurs, ainsi que l’extrême-droite, qui ont inspiré leurs homologues en Europe.

Dans la réalité, la loi française prévoit l’enseignement de l’égalité homme-femme à l’école depuis 1989, et des cours d’éducation sexuelle sont prévus à l’école depuis une loi de 2001. On n’observe donc aucune « théorie du genre » dans les écoles, les réflexions sont plutôt menées autour des questions sur l’égalité entre les hommes et les femmes.

  • Réédition : encore pire que le pape lui-même, Sarko soutient ce dernier : http://www.bfmtv.com/politique/sarkozy-soutient-le-pape-francois-najat-vallaud-belkacem-nous-fait-honte-1044778.html

Année la plus chaude

L’auteur de l’article en lien ci-dessus a raison de faire la distinction suivante : les évolutions du climat sont évaluées sur plusieurs décennies, pas sur un record de température ponctuel. 

Le réchauffement climatique, qui est une réalité, est basé sur l’évolution de la moyenne des températures sur des décennies, pas sur des températures maximales à un instant donné.

Une planète habitable près de Proxima Centauri ?

  • On vient de me montrer cette page et me demander ce que j’en pense : http://www.msn.com/fr-fr/actualite/technologie-et-sciences/exoplan%C3%A8te-une-jumelle-de-la-terre-d%C3%A9couverte-dans-le-syst%C3%A8me-solaire-voisin/ar-BBvFL7R?li=BBoJIji&ocid=UE12DHP

 

En résumé : selon le quotidien allemand Der Spiegel , cette planète « rocheuse comme la Terre » serait en orbite autour de Proxima Centauri, l’étoile la plus proche de notre système solaire.

 

Si l’étoile Proxima était à la place de notre soleil, notre température serait de -250°C sur Terre, en basant les calculs sur les différences de magnitudes stellaires et sur la loi de Stefan-Boltzmann.

Il faut placer une exoplanète à environ 897 000 km de Proxima pour avoir conditions thermiques comme sur Terre, d’une part c’est une distance trop proche, et d’autre part Proxima est une étoile éruptive (luminosité variable) qui projette du plasma, rendant probablement la planète stérile à cause des rayons X dus aux mouvements de convections rapides du gaz de Proxima. Alors, peut-être que la planète (si elle existe) a de l’eau liquide à 15°C a priori, mais cette planète est irradiée et stérilisée par Proxima (l’Etoile de la Mort ?…)

En effet, imaginez le contexte : des protubérances de plasma dont la grosseur est plusieurs fois la distance Terre-Lune, si cela croise l’orbite d’une planète proche de l’étoile, cette planète subit quelque chose de bien pire qu’un vent solaire. Des irradiations mortelles.

Et ça, personne n’en parle.

 

Avant de risquer de prétendre que la vie est possible sur une planète, on doit voir quels indices peuvent réfuter l’hypothèse de la vie sur une planète. Par exemple, la planète Mars est dans une zone thermique d’habitabilité, mais le sol martien contient des sels comme les perchlorates qui sont des oxydants hostiles contre la vie.

 

Mais en relisant l’article de MSN, on peut lire ce paragraphe :

« Un porte-parole de l’ESO, Richard Hook, a indiqué avoir pris connaissance de l’article, mais s’est refusé à confirmer ou démentir. « Nous ne faisons pas de commentaires », a-t-il déclaré, alors que l’annonce officielle pourrait intervenir fin août.Mais d’autres, eux, ont été plus bavards. « Trouver ce corps spatial était un travail très difficile », a déclaré un astrophysicien à l’hebdomadaire, sous couvert d’anonymat. « Nous étions aux limites de ce qui est techniquement possible de mesurer », a-t-il ajouté. »

  • Une révélation, un scoop, avant une annonce officielle.
  • Une publication dans un hebdomadaire, via un astrophysicien sous couvert d’anonymat.
  • Exploiter des mesures aux limites des capacités techniques de mesure, c’est augmenter les chances d’avoir un biais statistique qui conduit à une conclusion fausse.

Donc à prendre avec des pincettes, pour le moment…

Dernièrement, les journalistes connurent d’abord l’extase avec la découverte de la particule X au LHC, mais après, on a appris le démenti : la particule X n’existe pas, erreur statistique, avait-on entendu dire…

 

 

 

Encore une erreur dans le synopsis d’un documentaire

 

VoieLactee

Ce documentaire est rediffusé sur la chaîne ARTE le 6 août 2016.

Mais l’erreur présente dans le synopsis ci-dessus n’a toujours pas été corrigée… J’en ai déjà parlé plusieurs mois plus tôt dans mon blog.

La Voie Lactée contient environ 200 milliards d’étoiles, pas 200 millions.

Mais la chaîne ARTE n’est pas en tort. En fait, c’est le journaliste du magazine TV qui n’est pas capable de recopier soigneusement le texte de Arte, et qui n’a pas consciencieusement corrigé cette erreur qui persiste…

 

Les coïncidences numériques

Pour examiner mathématiquement les cas de coïncidences numériques, je propose un exemple simple.

  • Quelle est la probabilité pour qu’un mystique numérologue ou un pseudo-égyptologue du dimanche découvre que deux choses au moins ont un même nombre quelconque en commun permettant dès lors des analogies fantasques ?

En supposant que les numérologues s’appuient principalement sur des nombres entiers entre 1 et 99, c’est-à-dire un cardinal de K entiers, et que l’on base les spéculations sur N possibilités qui aboutissent à N nombres entiers, lors de l’exercice de numérologie, alors la probabilité P est :

  • P = 1 – (K! / (K^N * (K – N)!))

 

Les possibilités sont très vastes, cela peut être le nombre fétiche de l’empereur Napoléon, la somme des chiffres d’une date de naissance (modulo 100), l’addition des chiffres d’une plaque d’immatriculation, les sommes des chiffres de la date d’une déclaration de l’indépendance d’une nation, et caetera… Plus on réunit de possibilités entre elles, plus il sera probable de découvrir une coïncidence entre au moins 2 possibilités quelconques.

Concrètement, pour une utilisation de nombres dont chacun vaut entre 1 et 99, il faut réunir :

  • Seulement 12 possibilités pour que la probabilité de coïncidence dépasse 50%.
  • Seulement 21 possibilités pour que la probabilité de coïncidence atteigne 90%.
  • Seulement 24 possibilités pour que la probabilité de coïncidence dépasse 95%.
  • Seulement 31 possibilités pour dépasser une probabilité de 99
  • Au-delà d’environ 50 possibilités, la probabilité est de 100%, donc un événement certain.

Des coïncidences à bonne probabilité de survenir, complètement par hasard.

Maintenant, demandez-vous ce que peuvent valoir les coïncidences numériques donnant issue à des théories mystiques farfelues à travers une géométrie approximative et amateur des pyramides d’Egypte ou à travers des nombres entiers récurrents retrouvés dans de nombreux versets du Coran ou de la Bible…

Avant de croire que des coïncidences ont un sens, une cause déterministe, mieux vaut d’abord voir si on peut les distinguer du hasard. Or le hasard peut lui seul expliquer de telles coïncidences.

 


© John Philip C. Manson

L’activité solaire monte t-elle en puissance ?

Synopsis d’un documentaire vu dans un programme TV :

soleil

  • Je cite : « Selon les scientifiques, l’activité à la surface de notre soleil est montée en puissance ces dernières années. Mais quelles conséquences ces phénomènes naturels peuvent-ils engendrer pour notre planète ? De gigantesques éruptions solaires pourraient ainsi projeter des milliards de tonnes de plasma en direction de notre planète ».

 

Sur le web, on peut trouver des textes qui contredisent la prétendue augmentation de l’activité solaire.

Comment une telle erreur de pourcentage est-elle possible ?

CmwodTyXYAQy_Hk.jpg-large

J’ai aperçu récemment cette image sur Twitter.

L’image est un extrait du JT de France 2, diffusé le 19 février 2013, dans lequel un économiste diplômé de l’Ecole supérieure de commerce raconte qu’une succession d’une élévation de 6% par an consécutive sur 5 ans est égale à 30% en 5 ans, selon une simple multiplication.

Mais c’est faux !

En effet, quand on parle de pourcentages, ils ne s’additionnent pas de façon linéaire, car ils suivent une courbe parabolique.

  • Une valeur qui augmente de 30% (donc x = 0,3) en 5 ans, ça équivaut à multiplier la valeur initiale par 1,3, puisque (1 + x)^1 = 1,3.
  • Mais une valeur augmenté de 6% par an (donc x = 0,06), sur 5 années, ça équivaut à multiplier la valeur initiale par 1,33822, puisque (1 + x)^5 = 1,33822.
  • En mathématiques : 5 hausses successives de 6% ne donnent pas une hausse de 30%. En réalité ce sont 5 hausses de 5,39% par an qui correspondent à 30% sur 5 ans.

En France, la notion de pourcentage est étudiée en classe de 4e, au collège.

Comment est-il possible qu’une bourde pareille se soit glissée dans le JT, alors que l’économiste (de niveau universitaire) est présumé maîtriser les notions de pourcentages ?

  • Peut-être pour simplifier au maximum pour le public, mais même avec une erreur de 3% environ, cette différence existe. En maths, comme la hâte, la simplification maximum est l’ennemie de l’exactitude.
  • C’était peut-être un test délibéré, afin de voir si ça passe ou pas. C’est passé à l’antenne, et c’est passé (presque) inaperçu. Il est donc possible de raconter n’importe quoi sans conséquence, du moins à la télévision… Ce n’est pas rassurant.

 

Sondages

Voici plusieurs sondages, merci d’y participer. N’hésitez pas à partager ces sondages.

 

Quand un prof est soupçonné de terrorisme pour avoir écrit une équation

 

Pour résumer les faits, une passagère dans un avion remarque un autre passager qui écrivait des symboles qu’elle trouvait bizarres. Elle a aussitôt réagi en pensant que l’homme était un terroriste qui écrivait des instructions secrètes. La situation fit que l’avion est resté immobilisé pendant une demi-heure. Mais l’homme accusé de terrorisme n’était qu’un honnête professeur italien, connu pour être l’un des meilleurs économistes, dont l’étrange écriture codée n’était qu’une banale équation différentielle.

On n’en a pas fini avec l’ignorance qui rend favorable les peurs irrationnelles qui se déchaînent à travers la tentation du délit de faciès, les dénonciations calomnieuses qui rappellent l’époque de l’Occupation et des collabos, et l’ignorance totale en matière de maths élémentaires et d’un minimum de culture scientifique. Les discours de Donald Trump, avec ses discours anti-migrants et anti-musulmans, ne vont pas arranger le contexte de paranoïa ultrasécuritaire.

Il y a vraiment des gifles qui se perdent !…

 

La sophrologie caycédienne, c’est quoi ?

Certains praticiens s’installent en ville. Des coiffeurs, des boulangers, des artisans ou des commerçants, et aussi les médecins et les dentistes.

Mais ici je vais parler du cas des sophrologues caycédiens. Quand un nouveau s’installe en ville, on est en droit de se demander légitimement : c’est quoi ? c’est fiable ?

Qu’est-ce que la sophrologie caycédienne ? Il existe des pratiquants de cette discipline qui affirme être des thérapeutes ou des psys, une médecine douce, ou des rééducateurs… Surtout, ils font passer leur sophrologie caycédienne pour une science (comme la médecine), ce qu’elle n’est pas.

La sophrologie caycédienne est présentée comme une méthode de développement personnel qualifiée tour à tour de psychothérapie, de méthode de relaxation, voire de médecine alternative, une sorte de thérapie de la conscience. Elle n’est pas une science, cette pratique n’a fait l’objet d’aucune étude validée scientifiquement.

Il faut également savoir que la profession de sophrologue caycédien n’est pas réglementée, son exercice est libre en France, accessible sans diplôme particulier. Toutefois, aucun praticien se déclarant de cette profession ne peut légalement procéder à aucun acte médical, tel que le diagnostic, la thérapie ni la prescription de médicaments, et encourt le cas échéant des poursuites pour exercice illégal de la médecine.

Selon le journal officiel du ministère de la santé, le 21 septembre 2004, la sophrologie n’est pas une discipline définie ni reconnue dans le cadre du code de la santé publique.

Il faut aussi souligner les risques de dérives.

Il y a très peu d’études cliniques scientifiques sur la sophrologie caycédienne. Les prétendues publications « scientifiques » sur la sophrologie sont principalement le fruits de praticiens faisant la promotion de leur discipline par des études non scientifiques, publiées généralement en marge des canaux scientifiques, mais régulièrement brandies comme arguments « authentiques » par les sophrologues.

La sophrologie est aujourd’hui une tradition principalement française, quasiment inexistante dans les autres pays.

La sophrologie fait régulièrement polémique en raison de l’existence avérées de dérives sectaires ou d’abus de faiblesse, selon la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (MIVILUDES).

Souvent la sophrologie se situe aux confins du New Age (hypnose, training autogène, yoga) et de la  psychothérapie (psychologie, psychosomatique), la sophrologie n’a aucune base solide. C’est une méthode basée sur les expériences subjectives des personnes, sans aucun moyen objectif d’évaluation. On glisse alors vers des offres proposant  des « thérapies libératrices » dont les doctrines se réclament de la sophrologie, la parapsychologie, le mysticisme, l’orientalisme et aussi la voyance ou la médiumnité… Ces nouveaux « marchands de bonheur » prolifèrent un peu partout et une bataille idéologique est déclarée entre les diverses doctrines faisant scission, entre néo-sophrologues et sophrologues orthodoxes.

Quand vous recevez de la pub ou des tracts faisant la promotion de techniques douteuses, ayez du recul…

Philosophie : La science est-elle une idéologie ?

Parlons de philosophie aujourd’hui. Les sujets du Bac de philosophie, récemment révélés, ont réveillé mon vieil intérêt pour la philosophie. La philosophie est un exercice excellent, et on peut se poser des questions intéressantes.

Je vais répondre aussi précisément que possible à cette question : la science est-elle une idéologie ?

Avant d’y répondre, on doit se demander quelle est la définition du mot « idéologie ».Sur Wikipedia, on peut lire ceci : une idéologie est, au sens large, la science d’un système d’idées imaginées. L’idéologie s’accompagne de croyances, de notions, d’opinions, de convictions et est parfois constituée en doctrine.

Une idéologie reflète l’ensemble des idées subjectives issues de la pensée humaine, ces idées réunissent les croyances politiques, religieuses, morales, économiques, sociales ou culturelles. Par exemple, la doctrine du régime nazi est une idéologie fondée sur le racisme et l’antisémitisme. Le New Age, quant à lui, est une mouvance dont l’idéologie est basée sur le syncrétisme de diverses croyances qui peuvent se contredirent entre elles.

Mais la science est-elle une idéologie ? Au cours du Siècle des Lumière, la science pris un essor important. Les sciences sont une voie qui entre en opposition avec les superstitions de l’époque. S’instruire, et connaître de nouvelles découvertes fait (peut-être) reculer les croyances, l’information remplace le faux. Mais on a été jusqu’à placer la science comme un absolu, ce que l’on appelle le scientisme. C’est là que commence l’idéologie.

Qu’est-ce qu’une science ? Toute science repose sur la méthode scientifique dont le but est de découvrir et comprendre les phénomènes naturels (physique, chimie, astrophysique, biologie, etc…). Les sciences sont consacrées à la découverte des lois de la nature, elles échappent donc à toute idéologie. Une idéologie, elle, est déterminée de façon subjective et arbitraire. Penser par exemple que « l’homosexualité est sale, qu’elle est une maladie, et qu’elle est le Mal », c’est une idéologie morale. Il ne faut pas oublier que l’OMS avait classé jusqu’en 1990 l’homosexualité parmi les maladies mentales. En effet, jusqu’à il y a un peu plus de vingt ans, l’homosexualité était encore considérée comme une pathologie psychiatrique. Depuis, les choses ont heureusement évolué. Ce n’est pas la médecine qui avait motivé ce classement discriminatoire, mais une idéologie. De même, jusqu’à tardivement, la masturbation avait été considérée comme déviante. De fait, la psychologie, par ses incertitudes et sa subjectivité, n’est pas une science. Souvenons-nous de l’expérience de Rosenhan (https://fr.wikipedia.org/wiki/Exp%C3%A9rience_de_Rosenhan). Ou selon un point de vue plus nuancé : la psychologie, sérieuse à la base, est mal interprétée voire manipulée par certains de ses représentants. Les dérives de la psychologie ont conduit au développement de la psychanalyse, dont les fondements pseudoscientifiques font qu’elle n’est pas une science mais une idéologie : la psychanalyse se base sur des anecdotes, de la littérature, des affirmations, mais pas sur des faits objectifs vérifiables.

Autour de la question à propos de la psychologie, de la médecine et de la santé : qu’est-ce qu’une maladie ? Une maladie est une affection qui provoque une souffrance à une personne, ou qui cause une souffrance à son entourage. L’on n’est pas malade si l’on ne souffre pas et si l’on ne fait pas souffrir autrui. Être dépressif, ou être paranoïaque, on souffre de ces troubles, donc on est malade. Un homme qui frappe sa femme et la domine, cet homme cause de la souffrance, il est donc malade.Mais être gay, aimer une personne du même sexe, être heureux et vivre à deux, connaître et vouloir le bonheur c’est être sain. Cependant, les homophobes semblent obsédés par ce que peuvent faire les gays, les homophobes ne pensent qu’à ça, ça les obsède, ça les ronge jusqu’à devenir violents et commettre des agressions. Être homophobe (ou raciste) et être asocial à cause de cela, c’est être malade.

Être en bonne santé, ou être « normal », est ce qui est statistiquement fréquent naturellement, pas ce qui est défini selon des critères moraux ayant dérapé dans l’idéologie.

Il y a un philosophe, Kant, qui évaluait la valeur morale d’un acte selon le désordre que celui-ci provoquerait dans la société. Si tout le monde volait, ou tuait, ce serait terrible, donc voler ou tuer est immoral. Si tout le monde se vengeait dès qu’il en a envie, alors la vie serait impossible. En ce sens, la passion extrême est immorale.

Je prends moi-même l’exemple de la vérité : si tous le monde disait la vérité en toute franchise, les gens découvriraient qu’ils ont de faux amis, des faux-culs, les pensées d’autrui seraient connues, des vérités très dures à entendre, et là aussi la vie sociale serait impossible, ça deviendrait la guerre civile. Donc dire la vérité est-il immoral ?

L’intérêt de la question morale : doit-on fonder la morale dans le cœur ou dans la raison ?

La notion de maladie est relative. Dans l’Union soviétique de Staline, par exemple, les prisonniers politiques étaient parfois internés abusivement comme paranoïaques, afin de s’en débarrasser. De même, il est toujours possible de nos jours de faire interner une personne de force, de la bourrer de médicaments. Il suffit pour cela d’une demande manuscrite et d’un certificat médical. Les internements sont très souvent justifiés, mais le risque zéro n’existe pas : il peut toujours y avoir des erreurs ou des abus.

Pour revenir à la notion de scientisme, où la science est placée comme une autorité absolue, il s’agit aussi d’idéologie. On parle de positivisme quand la science est érigée en vérité. Il y a des années autrefois, je pensais à tort que la science était essentiellement fondée sur la vérité.

Quand j’ai découvert le philosophe Karl Popper, je n’étais pas d’accord tout de suite avec lui. C’était un choc, une nouveauté. Mais j’ai progressivement pris conscience que l’épistémologie de Karl Popper est ce qu’il y a de mieux actuellement pour construire la méthode scientifique, avec discernement et objectivité, où la science est importante, sans nier le fait qu’elle a elle-même des limites. L’épistémologie de Popper repose sur un critère : la réfutabilité. Avec ce critère, la science procède par élimination : si une hypothèse se révèle fausse selon les expériences ou les observations, alors l’hypothèse dite falsifiée (ou réfutée) est rejetée, abandonnée. Mais ce qui confère le caractère scientifique d’une hypothèse, c’est la possibilité de pouvoir la réfuter. L’épistémologie de Popper n’est pas une idéologie, puisqu’il s’agit d’une méthode plutôt qu’une doctrine : on cherche objectivement à invalider des hypothèses scientifiques afin d’éprouver leur solidité, les théories scientifiques se construisent par élimination au lieu d’être érigées péremptoirement comme des vérités immuables comme le font certains…

Cela nous amène à une nouvelle question : est-ce que l’éducation et l’instruction sont une idéologie ? Oui, si celles-ci contiennent une idéologie sous-jacente qui est autre que le principe d’informer. L’école laïque promeut la neutralité et l’égalité. Quand on trouve par exemple des éléments bibliques dans des cours d’Histoire, ce n’est pas de l’Histoire, mais plutôt de la culture religieuse, ce qui n’est pas du tout pareil. Diffuser des mythes en les posant comme des vérités irréfutables, voila une situation d’idéologie.

L’un des principes fondateurs de Wikipedia est la neutralité, afin d’éviter que chaque contributeur vienne y rédiger ses propres doctrines, son idéologie, et ses réflexions personnelles. En ce sens, Wikipedia se régule lui-même afin d’éviter le glissement vers des idéologies. Sans règles, Wikipedia deviendrait rapidement un repaire de publicitaires, une vitrine commerciale, voire un inventaire de diverses pensées sectaires… Essayez de créer un site dans lequel n’importe qui écrit librement n’importe quoi, en disant que l’unique règle est qu’il n’y a pas de règles, imaginez ce que cela donnerait comme bordel : effacements compulsifs, réécriture permanente par différents auteurs, idéologies, apologies, insultes… Un peu comme un mur tagué.

Pour revenir à la science et la notion d’idéologie, il faudrait parler d’un fait : la technologie semble prendre de l’importance face à la science tout court. On assiste à l’émergence d’une technologie débridée propre à notre société de consommation. Nous, les consommateurs, on achète des gadgets, des smartphones et leurs applis, des objets connectés, tout ça, et on ne jure plus que par ça. Dans les rues, je vois des gens dont l’attention est absolument focalisée sur un écran de téléphone mobile, chaque fois que je croise quelqu’un… Cela devient même inquiétant. La technologie est-elle devenue, par certains aspects, une idéologie ?

mafalda

 

La science se laisse bouffer par la technologie. On commence à être survolés par des drones. Jusqu’à être filmés dans les chiottes et la salle de bain ? L’obsession de la sécurité, des caméras de surveillance partout (ça n’empêche pas le terrorisme), le mépris des libertés individuelles, voila une autre idéologie.

On le voit, la philosophie amène diverses réponses, et soulève aussi de nouvelles questions.

 

© 2016 John Philip C. Manson

 

 

 

 

Une loi de Murphy ?

D’après ma propre observation, j’ai établi une loi empirique, du type « loi de Murphy ».

Supposons un groupe composé de quelques fondateurs qui sont très compétents dans leur domaine (science, journalisme, art…). Ensuite, supposons que le groupe décide qu’aucune contrainte n’est faite pour l’adhésion de nouveaux membres au sein du groupe, que tout contributeur est libre d’adhérer, peu importe ses qualités personnelles.

J’observe que même si le groupe est composé au départ de gens compétents, le projet mené par le groupe perdra finalement en qualité en fonction des adhésions croissantes de nouveaux membres.

  • En résumé : dans un groupe de gens actifs créé par des compétents, les nouveaux participants font finalement baisser la qualité et le potentiel du projet.

Bref, le maintien d’une qualité certaine dans un projet n’est possible que si l’on fixe des règles, comme par exemple, avoir un niveau de compétence suffisant.

Mais cela est plutôt quelque chose de trivial, d’évident, et d’autres personnes auront déjà observé ce phénomène.

 

John Philip C. Manson

 

Sur la probabilité de mourir au cours de la même année

L’âge moyen au décès d’un Français (homme ou femme) est d’environ 78 ans plus ou moins 11 ou 12 ans, c’est ce qui est observé. Cette distribution statistique permet de quantifier la probabilité de mourir au cours de l’année selon l’âge.

La probabilité de mourir à l’âge de A ans est P = 0,000006634 * e^(0,107192 * A). Cette probabilité de mourir augmente exponentiellement avec l’âge.

  • Soit un groupe de 3 hommes, âgés de 34 ans, 42 ans, et 34 ans. Quelle est la probabilité pour que ces 3 hommes meurent tous au cours de l’année ?

Cette probabilité est d’un risque sur 25,9 milliards. C’est faible. Mais cet événement s’est pourtant produit en 1986 (en janvier, juin et novembre, chacun à 5 mois d’intervalle) en ce qui concerne Coluche, Thierry Le Luron et Daniel Balavoine.

trio Cliquer sur image pour agrandir

Mourir jeune est si injuste. Et c’est louche quand on sait que ces 3 artistes irremplaçables disaient des vérités qui dérangeaient…

De nos jours, la TV est minée par l’auto-censure, elle est devenue complètement aseptisée.

 

Les inondations en France en juin 2016 sont-elles dues au réchauffement climatique ?

Selon le président de la République, François Hollande, les fortes pluies et les inondations montrent l’importance de lutter contre le réchauffement climatique.

Oui il faut lutter contre le réchauffement climatique dans la mesure du possible.Mais le lien entre le réchauffement climatique et les inondations qui saccagent la France en juin 2016 n’est pas démontré.

Au cours du 20e siècle, la Seine connut plusieurs crues : en 1910, en 1924, en 1945, en 1954 et 1955, et en 1982.

Mais ce que les médias ne soulignent pas, c’est que les inondations et les crues, même en France et pas seulement dans les pays tropicaux, ont toujours existé.

  • L’Histoire de France révèle que la Seine a eu des crues en 583 (sous le règne de Chilpéric, roi franc mérovingien), qui fut la première crue mentionnée touchant Paris et les communes au bord du fleuve. En 1658 (sous le règne de Louis XIV), ce fut la plus haute crue connue (39 cm de plus qu’en 1910), ce fut une crue grave car le pont Marie fut emporté par le fleuve. En 1740 (sous le règne de Louis XV), une crue de la Seine fut mémorable. En 1876 (au début de la 3e République), toutes les îles de la Seine furent inondées. Bref, avant l’ère industrielle, ces crues existaient déjà et ne sont pas dues au réchauffement climatique.

 

  • En 1910, la hauteur de la crue a atteint son maximum avec 24,30 mètres à Andrésy.
    Depuis l’aménagement de la Seine en amont de Paris, les crues de 1945, 1954 et 1955 furent modérées.

En 2016, il ne faut pas se fier à la hauteur de la crue au niveau de la statue du zouave du pont de l’Alma, car les médias ne souligne pas (encore !) un détail qui a son importance : de 1970 à 1974, le pont de l’Alma (construit en 1856) fut reconstruit du fait de l’étroitesse et du tassement du pont d’origine, ce qui redéfinit le véritable niveau des eaux lors des crues postérieures aux années 1970…

Les crues ont toujours existé. N’oubliez pas les crues du Nil, utilisées par les Égyptiens de l’Antiquité, pour l’agriculture. Voir ici : https://fr.wikipedia.org/wiki/Nil#Le_r.C3.B4le_du_Nil_dans_la_fondation_de_la_civilisation_.C3.A9gyptienne

 

John Philip C. Manson

 

Combien de temps durerait une chute dans un tunnel qui traverse la Terre ?

Je résume brièvement.

Et si l’on creusait un tunnel à travers la Terre et que l’on sautait à l’intérieur ?

Alors combien de temps faudrait-il pour arriver jusqu’à l’autre extrémité ? Depuis près de 50 ans, les scientifiques affirment qu’il faudrait 42 minutes et 12 secondes pour traverser un tunnel creusé à l’intérieur de la Terre mais une étude publiée en 2015 leur a donné tort. Ces recherches ont été menées par Alexander Klotz de l’Université McGill à Montréal et ont permis de conclure qu’il en fallait moins (à cause de la densité non uniforme de la Terre).

 

Je me suis penché sur cette problématique, et je me suis basé sur la densité moyenne uniforme de la Terre, comme pour les calculs d’il y a 50 ans.
Une chute libre suit une accélération dans un tunnel en passant par le centre de la Terre.
J’ai tenu compte de la variation de l’accélération de la pesanteur en fonction de la distance parcourue.
Je pose alors g(z) = 9,81 / ((4 R^3 / (z²(3R – z))) – 1)
et aussi z(t) = (1/2) * g(z) * t²
Avec R = 6371000 m (rayon terrestre moyen), z = distance parcourue dans le tunnel, par rapport au point d’origine situé au niveau de la mer.
Calculer la durée à travers du demi-tunnel est tout simple, avec la condition suivante :  z = R. Donc t = 2R/g.
Temps pour parcourir le tunnel entier :   t =  4 R / g = 2 fois 1298,88 secondes, soit 43 minutes et 18 secondes.
Je trouve donc un résultat très proche de la valeur connue jusqu’en 2015.
Évidemment, comme la Terre a une densité variable selon sa profondeur (la densité n’est pas constante dans la réalité), on appelle cela un gradient de densité, cela change forcément le contenu des calculs.
Tout lycéen de Terminale S (niveau Bac S) sait normalement calculer tout cela.

André Brahic nous a quitté

Cif6KSmW0AErSe5.jpg large

Terrible nouvelle. C’est avec une très profonde tristesse que je viens d’apprendre sur Twitter le décès de l’astrophysicien André Brahic, qui avait lui-même découvert les anneaux de la planète Neptune. Nous perdons un excellent vulgarisateur scientifique.

Avec son talent pour captiver l’attention de son auditoire, avec son éternel sourire, il parlait des étoiles et des planètes avec passion. Il figure parmi ceux qui ont contribué à ma vocation scientifique. Merci, André Brahic.

Décidément, 2016 est une année maudite, nous perdons régulièrement des personnalités que nous aimons.