Générateur de nombres premiers

Il est impossible de ne générer que des nombres premiers au moyen d’un polynôme.
Mais il existe parfois des algorithmes qui donnent un coup de pouce.

Depuis longtemps, je m’intéresse à la découverte des nombres premiers, et j’ai mis au point le 9 janvier 2018 un algorithme intéressant.

  • Soient a, b, c, d, e des nombres premiers supérieurs à 2, donc tous impairs.
  • Alors lorsque ces nombres premiers sont inférieurs à 100, je trouve un nombre ((a*b*c)² – (d*e)²) – 1 qui a une probabilité 7 fois supérieure d’être un nombre premier par rapport à la proportion naturelle 1 / ln (((a*b*c)² – (d*e)²) – 1).
  • Je n’ai pas encore testé pour de plus grands nombres générés.

 

Exemple, je pose :

  • b = 67
  • c = 97
  • d = 13
  • e = 61
  • a = entre 3 inclus et 97 inclus, soit 25 nombres premiers à tester l’un après l’autre.

 

Sur 25 nombres générés par ce calcul, j’obtiens 7 assez grands nombres qui sont premiers !

  • ((7*67*97)² – (13*61)²) – 1 = 2 068 984 199 est premier
  • ((17*67*97)² – (13*61)²) – 1 = 12 205 864 439 est premier
  • ((19*67*97)² – (13*61)²) – 1 = 15 246 928 511 est premier
  • ((23*67*97)² – (13*61)²) – 1 = 22 342 744 679 est premier
  • ((31*67*97)² – (13*61)²) – 1 = 40 589 129 111 est premier
  • ((47*67*97)² – (13*61)²) – 1 = 93 300 906 359 est premier
  • ((89*67*97)² – (13*61)²) – 1 = 334 558 656 071 est premier

Normalement j’aurais dû avoir environ 4% de chance de tomber par hasard sur un nombre premier de 11 chiffres, mais là ça arrive à 28% avec le générateur. Bizarre, non ? Il faudrait explorer ça en profondeur.

Publicités

Quel est le QI le plus élevé possible actuellement ?

Quel est le QI le plus élevé possible actuellement ?

  • Selon l’échelle de Wechsler, et par calcul, le QI le plus élevé possible actuellement est de 195.

Une seule personne sur 7 milliards possède un tel QI.

 

  • Selon l’échelle de Cattell, et par calcul, le QI maximum parmi la population mondiale actuelle vaut 252. Il vaut 195 dans l’échelle de Wechsler, comme on l’a dit.

Si les médias évoquaient éventuellement des QI au-delà de cette limite absolue, ça serait une méconnaissance du sujet…

Sur la limitation à 80 km/h sur les routes

Je cite le Premier Ministre : « Il y a 3 500 morts et 70 000 blessés par an, 70 000 ! Après des décennies de progrès, nos résultats se sont dégradés. Eh bien je refuse de considérer cela comme une fatalité »

Avec cette phrase, il a absolument raison, il faut faire quelque chose.

Mais en baissant de 90 à 80 km/h, on baissera de 21% (en terme d’énergie cinétique) la gravité des dégâts matériels et humains, mais il y aura toujours autant de blessés…

D’autre part, l’affirmation suivante est complètement fausse : « Si on fait baisser de 10% la vitesse moyenne, on obtient une baisse de 4,6% du nombre de morts (…), c’est une donnée scientifique qui a été mesurée par de nombreuses études dans le monde »  Ces personnes devraient réouvrir leurs bouquins d’étudiants pour les lire plus attentivement…

  • Réfléchissez donc ! Quand on s’exprime en variation de pourcentage pour la vitesse et une variation de pourcentage sur la mortalité routière, on obtient une fonction linéaire. C’est-à-dire que pour une vitesse nulle, on a encore 50% de tués… On voit bien que la formule ne marche pas du tout !

Voici le nombre de tués par an en fonction de la vitesse, si on considère que baisser de 10% la vitesse moyenne fait obtenir une baisse de 4,6% du nombre de morts :

C’est linéaire, et ça pose problème…

En effet, l’équation est donc :

T = 20.3616 V + 1687.04
avec T = nombre de tués
et V = vitesse en km/h.

Valeur N selon T et V :  V = 90(1 - 10%)^N 
et T = 3500(1 - 4,6%)^N, où T est linéaire 
par rapport à V. Avec N un entier positif.

On remarque alors qu’avec une vitesse nulle, il reste 1687 tués par an…
Cela ne va pas du tout. L’affirmation des pourcentage est forcément fausse.

La véritable équation est exponentielle, mais pas linéaire, et la vraie équation se base sur l’énergie cinétique du véhicule, c’est-à-dire que la mortalité est proportionnelle à la masse du véhicule et des personnes accidentées et proportionnelle au carré de la vitesse du véhicule.

Voici la vraie équation :

On ne peut plus exprimer ça en pourcentages pour T et V car ça ne vaut que si c’était linéaire de part et d’autre.

Là, selon l’énergie cinétique variable selon la vitesse, on voit qu’il n’y a aucun tué lorsque la vitesse est nulle. L’équation est donc crédible cette fois.

T = K(0.432 V² + 0.0019 V + 0.058)
avec K un nombre réel variable en fonction de V

Mais concrètement, mieux vaut éviter d’exprimer la vitesse et le nombre de tués avec des pourcentages, sinon c’est confus. Dans une équation non linéaire, les pourcentages ne valent que pour une vitesse précise, pas pour toutes les vitesses, c’est là qu’était la problématique.

Comment réduire alors les accidents de la route ? Interdire sévèrement l’alcool et la drogue (dont le cannabis) et faire la guerre aux comportements routiers dangereux, et aussi faire de la prévention constante en insistant de façon à ce que les gens s’obligent à dormir assez avant de reprendre la route, car c’est là les principaux problèmes. Faire réduire la vitesse ne changera pas grand chose quant aux nombre des blessés, bien que ça puisse réduire la mortalité. Réduire la vitesse va inciter les chauffards à doubler les gens lents à fond et il y aura encore des accidents… Mieux vaut prévenir que guérir.

 

79% des français croient à au moins une théorie du complot

Près de huit Français sur 10 croient à au moins une « théorie du complot », selon une étude. Une enquête de la Fondation Jean-Jaurès et de Conspiracy Watch, en lien avec l’Ifop et relayée par Franceinfo, dévoile pour la première fois les croyances des Français en matière de « fake news ».

Si la croyance est corrélée au niveau de QI (simple hypothèse), alors 79% des français (ceux qui croient aux théories du complot) auraient un QI entre 0 et 112, en prenant l’hypothèse que les QI supérieurs à 112 ne croient pas du tout aux théories du complot.

Même en prenant l’hypothèse que la croyance aux théories du complot n’est pas liée directement au QI : 79% c’est beaucoup et cela inclut forcément aussi les QI élevés.

La leçon à retenir de ce fait : l’intelligence sans esprit critique est un manque d’intelligence. Quand on est intelligent on peut tout-à-fait légitimement douter des versions officielles et prendre une théorie du complot comme hypothèse plausible, mais ça ne va plus quand il y a adhésion irrationnelle à la théorie du complot, sans preuves objectives matérielles réelles.

La polémique montre une grande proportion de gens qui ne font plus du tout confiance aux autorités, car c’est bien là le fond du problème.

  • Moi, par exemple, j’émets l’hypothèse que les médias ne sont pas vraiment neutres, qu’ils reçoivent des directives, par une ligne éditoriale centralisée. Mais je n’en fais pas une croyance. Mais j’ai des soupçons légitimes. Franchement, est-ce que la non-neutralité des médias est une théorie du complot ? Il faudrait étudier cette question. Parle t-on de français qui croient irrationnellement ou de français qui prennent une hypothèse possible (avec parfois l’appui de preuves) ? On va voir que cette deuxième option est envisageable, vous comprendrez en lisant la suite ci-dessous.

La croyance, c’est quand une idée se radicalise tout en restant dans l’irrationnalité, et ça n’est pas bon du tout.

Et se tromper de jugement par croyance en une théorie du complot est aussi pire que faire confiance aveuglément aux thèses officielles. On peut ne pas faire confiance, mais on doit se garder de se tromper. Beaucoup de conneries fantaisistes ont été dites en matière de théories du complot à propos du 11 septembre 2001, par exemple.

  • Mais il y a un point dans l’article de France TV Infos qui est erroné, c’est quand ils affirment que « Ils sont également 30% à juger que les médias travaillent dans l’urgence et qu’ils restituent l’information de manière déformée et parfois fausse. » 

En effet, il se trouve que pondre des erreurs dans le journalisme n’est pas une théorie du complot, mais une réalité quotidienne que j’ai prouvée maintes fois dans mon blog. Les journalistes, comme tout être humain, sont faillibles et peuvent écrire des erreurs, des omissions, des inexactitudes, et même des conneries, il n’y a qu’à parcourir mon blog pour s’en rendre compte. Mes analyses montrent que le journalisme se plante souvent, surtout en matière de sciences. C’est le comble de faire croire à l’intégrité parfaite du journalisme alors que c’est loin d’être le cas !… De qui se moque t-on ?

En voici des exemples :

 

Souvent, le journalisme ne maîtrise pas l’info scientifique. Je suppose que des pigistes stagiaires peu formés commettent ces maladresses. C’est souvent ahurissant…

Alors, lire des sous-entendus comme quoi les médias ne restituent pas l’info de manière déformée ou fausse, ça me révolte… N’importe quoi ! Ce n’est pas une théorie du complot, c’est la réalité, et j’ai des preuves. Il faut arrêter le foutage de gueule.

 

Nous sommes en pleine régression intellectuelle

Ce que j’en pense personnellement :

La montée de l’ignorance favorise la montée du fanatisme et celle de l’extrémisme. Il faut réagir, en commençant par mieux s’informer, en préférant la difficulté à la facilité, en choisissant l’essentiel plutôt que le superficiel, et préférer la réflexion à la lecture passive. L’information n’est pas du kleenex jetable et oubliable, l’information est ce qui est vrai et vraiment utile au quotidien, comme un bon livre de sciences (sans écologisme politisé et idéologique, n’est-ce pas) ou de Droit. Oubliez la TV, la télé-réalité, et la malbouffe audiovisuelle, le journalisme qui ne maîtrise même pas les informations scientifiques c’est de la merde tout ça. Il faut savoir lire : c’est-à-dire lire pour comprendre, réfléchir et créer. Lire sans comprendre ni réfléchir : c’est ne pas savoir lire. Les dictionnaires pour développer le vocabulaire n’ont pas été imprimés pour les chiens.

L’intellect contemporain est en régression, et l’indifférence des pédagogues et des gouvernements est inquiétante. Il faut réagir !!! Ça a été voulu ou quoi ? Il faut que ça change. Tout le monde est responsable de tout ça, tout le monde ! Même ceux qui constatent sans rien faire.

J’ai créé ce blog en 2007 pour faire comprendre aux lecteurs que les infos sur presse et internet sont à analyser en profondeur pour en révéler les failles et les défauts. Nous ne sommes pas des moutons destinés à avaler du prémâché. Les informations absolument vraies, sans erreurs et parfaites sont un mythe, il faut filtrer l’information, c’est une bonne façon d’apprendre et de comprendre. Soyez anticonformistes et iconoclastes. Être objectif et remettre les choses en question, et avoir une culture générale intéressante et utile, sans idéologie ni dogmatisme, voila le but de chacun. Lisez un peu de tout, réfléchissez, mais pensez surtout par vous-mêmes, sans s’appuyer sur les écrits des autres, c’est le plus important. Ne croyez jamais les médias, ne leur faites pas confiance. Il faut démêler le vrai du faux, et admettre qu’on peut aussi se tromper (ça arrive parfois). Vérifier objectivement, voila la nécessité.

 

Les chiens sont parfois plus intelligents que les humains…

 

Parallèlement, voici une race de chien : le border collie. Un chien de cette race connaît et comprend 1022 mots, son vocabulaire est donc supérieur à celui de certains humains…

 

C’est authentique, hélas. Il existe quand même un très gros problème. L’éducation humaine est en déclin, il faut réagir !!!! Quand même, il y a des coups de pied au cul qui se perdent…

Le coup de foudre n’existerait pas vraiment

Une étude scientifique menée au sein de l’Université de Groningen, aux Pays-Bas, le coup de foudre n’existerait pas vraiment. Parmi les 49 coups de foudre détectés dans un échantillon de 396 personnes, aucun n’était réciproque…

Pour approfondir la question, je me suis demandé combien il y aurait de coups de foudres en réunissant un certain nombre d’hommes et de femmes hétérosexuel(le)s.

  • Au minimum : aucun coup de foudre.
  • Au maximum : pour X supérieur ou égal à 6 ; X²/2 (X carré sur 2) coups de foudre possibles, si on réunit X personnes dont X/2 hommes et X/2 femmes, auquel cas ce serait du polyamour, étant donné qu’on envisage ici le seuil maximum.

Avec 158 hommes et autant de femmes, on a alors 24964 possibilités de coups de foudre en théorie, mais on aura seulement 49 cas de « coups de foudre » effectifs. Soit un taux de 1 sur 510.

  • En théorie, pour recenser au moins 1 coup de foudre, il faudra alors réunir au moins 32 personnes : 16 hommes et 16 femmes.

Personnellement, je ne crois pas en la réciprocité du coup de foudre, cela va toujours dans un sens, c’est très rarement équivoque et réciproque. L’amour réciproque c’est de la science-fiction, alors qu’en amour on a tellement besoin de certitude…

Les vœux de Jacques Brel le 1er janvier 1968

  • Le seul fait de rêver est déjà très important. Je vous souhaite des rêves à n’en plus finir et l’envie furieuse d’en réaliser quelques-uns. Je vous souhaite d’aimer ce qu’il faut aimer et d’oublier ce qu’il faut oublier. Je vous souhaite des passions, je vous souhaite des silences. Je vous souhaite des chants d’oiseaux au réveil et des rires d’enfants. Je vous souhaite de respecter les différences des autres, parce que le mérite et la valeur de chacun sont souvent à découvrir. Je vous souhaite de résister à l’enlisement, à l’indifférence et aux vertus négatives de notre époque. Je vous souhaite enfin de ne jamais renoncer à la recherche, à l’aventure, à la vie, à l’amour, car la vie est une magnifique aventure et nul de raisonnable ne doit y renoncer sans livrer une rude bataille. Je vous souhaite surtout d’être vous, fier de l’être et heureux, car le bonheur est notre destin véritable.

Jacques Brel

Modèles mathématiques et régressions non linéaires

Je viens de trouver un site meilleur que Wolframalpha.com :

Cette page permet d’obtenir une grande variété d’équations qui définissent une courbe formée à partir des points  qu’on a entrés en paramètres.

Rappel : l’équation la plus simple parmi d’autres, pour un même résultat, est toujours la meilleure (exemple : on préférera évidemment y = x² au lieu de y = x2 – 1.953293612·10-14 * x1/2 + 1.054806674*10-14).

Génial !!!

On peut aussi en profiter avec d’autres types de modèles mathématiques :

 

  • Logarithmic Regression (LnR)
  • Exponential Regression (ExpR)
  • Power Regression (PowR)
  • Polynomial Regression (PR)
  • Multiple Linear Regression (MLR)
  • Multiple Polynomial Regression (MPR)
  • Nonlinear Regression (NLR)
  • Weighted Linear Regression (WLR)
  • Constrained Linear Regression (CLR)

 

Cependant, les régressions non linéaires fonctionnent avec deux dimensions : X (abscisses) et Y (ordonnées).

Il est plutôt intéressant de pouvoir travailler en plusieurs dimensions, comme X, Y et Z par exemple, et cela est seulement possible avec Wolframalpha.com.

Ah, tiens ! En fait, finalement on peut faire avec plus de 2 paramètres avec cette page : http://www.xuru.org/rt/MLR.asp on peut en effet tester avec X et Y et Z. Le résultat affichera alors X1 et X2 pour exprimer X et Y, et Y pour exprimer Z. Voila, très bien.

Je vais pouvoir créer des modèles plus précis.  😉

Statistiques de mon blog

En ayant réalisé récemment une sauvegarde zip de mon blog, voici de nouvelles statistiques.

Du 30 avril 2007 jusqu’au 18 décembre 2017 :

  • le blog contient 135 345 lignes réparties dans 4022 pages de format A4 (taille des caractères : 12 pixels),
  • soit au total 865 287 mots (soit 10 067 433 lettres et chiffres) d’un poids de 2,64 Mo.
  • le débit moyen est de 223 mots par jour environ.

Diagramme de Pareto et popularité de mon blog

Depuis que j’ai commencé mon blog (en 2007 sur un premier blog, puis dès 2011 sur ce présent blog), je n’avais pas trop prêté attention à la popularité de mon blog.

À ce jour, le 14 décembre 2017, mon blog en est à 384808 hits (100% des vues, référence pour les calculs ci-dessous).

En appliquant le principe de Pareto à mon blog, j’ai obtenu une information intéressante. Au lieu d’avoir une proportion 80-20, on obtient plutôt une proportion 80-4…

  • 80% des vues se concentrent sur les 20 principaux articles dont l’index du blog lui-même (soit 4% des articles lus)… Cela est évalué à partir de l’information ci-dessous.
  • Observé : les 5 principaux articles (1% des articles lus) représentent à eux seuls 34% des vues.
  • Environ la moitié de la totalité de mes articles n’est quasiment jamais lue.

De quoi dois-je parler comme sujet pour booster les vues quotidiennement, si j’en avais envie ?

Citation d’Einstein : authentique ou apocryphe ? More stats
Géométrie plane des quadrilatères aux 4 côtés inégaux entre eux More stats
Cours de chimie : l’eau de mer n’est pas acide mais alcaline ! More stats
Expérience statistique sur 9 tests de QI More stats
Qu’est-ce qu’un débat ? More stats
Le mercure rouge More stats
Brevet : épreuve de mathématiques More stats
Qu’est-ce qu’un noeud tellurique ? More stats
Une pale d’éolienne s’écrase au sol en Eure-et-Loir More stats
Les questions fûtées de Google lors d’un entretien d’embauche More stats
Un générateur électrique fonctionnant à l’hydrogène produit avec de l’urine ? More stats
Combien de CO2 «dégage» un kWh électrique ? More stats
Liste de blogs et sites scientifiques More stats
Scepticisme à propos du génie en mathématiques More stats
Géométrie tridimensionnelle et coordonnées GPS More stats
Qu’est-ce que la normalité ? More stats
Le vrai visage du New Age ou Nouvel Âge More stats
Une équation de Newton restée une énigme depuis 350 ans ? More stats
Shouryya Ray, l’heure de vérité More stats
Qu’est-ce qu’un scientifique ?

 

Pour booster un blog, il faut parler d’Einstein et de ses citations (apocryphes ou authentiques), c’est clair. Les mots « expérience » et « QI » associés, aussi. On peut également évoquer les sujets des annales du bac et du brevet. Le thème de Google marche bien aussi. Les listes de sites scientifiques aussi.

Ce n’est malheureusement pas les sujets les plus intéressants qui sont les plus lus.

Auto-entrepreneurs en 2013

Je m’appuie sur quelques rares données auxquelles j’applique mes calculs que personne ne fait, c’est pourtant intéressant à faire.

Le chiffre d’affaire fait à partir des auto-entrepreneurs n’est pas extraordinaire : en février 2013, les 894681 auto-entrepreneurs comptabilisés en France ont généré 1,43 milliards d’euros.

  • Remarque n°1 : 51,2% des auto-entrepreneurs ne font pas d’argent du tout, zéro euro. Au terme de 2 ans sans CA, ils seront radiés.
  • Remarque n°2 : les 48,8% restants, supposés faire un chiffre d’affaire (CA) non nul, c’est-à-dire 409760 auto-entrepreneurs, font une moyenne de 3500 euros par trimestre.
  • 51220 AE gagnent plus de 7500 € par trimestre, dont 26030 AE qui touchent plus de 10000 € par trimestre.
  • Donc 25190 AE gagnent entre 7500 et 10000 € par trimestre.
  • Et 358540 AE gagnent moins de 7500 € par trimestre.

En me basant avec la loi exponentielle sur un CA moyen de 3606,74 € par trimestre pour les AE actifs, on retrouve sensiblement assez bien le nombre d’AE correspondant à un intervalle de CA donné, avec une bonne approximation, à partir des données précédentes un peu plus haut.

  • N = 839672 * 0,488 * intégrale de x=0 à 7500 de (1/3606,74)*e^(-x/3606,74) dx = 358540.
  • Il y aurait entre 39000 et 42000 AE seulement qui dépasseraient le seuil plafonné de 32900 € de CA, impliquant un changement de statut entrepreneurial. Sur plus de 800000 AE, ce n’est pas beaucoup.
  • Environ un tiers des AE actifs gagneraient environ 3900 € par trimestre au moins (donc un bénéfice net de 1000 € par mois après déduction de 23% de cotisations si on est une profession libérale), donc les deux tiers des AE actifs sont en-dessous du seuil du gain de 1000 € nets par mois. Une auto-entreprise est une activité majoritairement précaire.

Les médias présentent trop souvent une image idéaliste et irréaliste de l’activité auto-entrepreneuriale, en vantant la liberté et l’esprit d’entreprendre et la « facilité » de rebondir professionnellement. La réalité montre un visage plus cruel, avec des difficultés à surmonter au quotidien.

 

Santé et WiFi (vu dans un magazine de jeux)

Les ondes électromagnétiques du WiFi sont-elles néfastes ?

  • L’encart du texte raconte que le corps humain est composé de 75% d’eau. FAUX ! Le corps humain adulte est composé de 66% d’eau. Nous ne sommes pas plein d’eau comme les méduses, tout de même…   
  • Concernant la fréquence de 2,4 GHz du WiFi c’est correct. Mais parlons de ce qui concerne la puissance du signal WiFi : à bout portant de la box ADSL, j’ai constaté une valeur maximum de -12 dBm (sachant que 0 dBm équivaut à 1 millième de watt, et que la puissance décroît de moitié si on diminue de 3 dBm). -12 dBm équivaut à seulement 62,5 millionième de watt, c’est une puissance électromagnétique très faible, sans conséquence sur la santé.
  • En comparaison, une ampoule de 40 W émet 640 000 fois plus de rayonnement qu’une box WiFi.
  • Et un four à micro-ondes de 600 W a une puissance 9,6 millions de fois plus intense que celle d’une box WiFi.
  • Il est rigoureusement impossible que le WiFi ou un téléphone mobile puissent aboutir à une cuisson ou un réchauffement, à cause de leur faible puissance par rapport à celle de l’électroménager spécialement conçu dans ce but.
  • Le CMBR (rayonnement fossile du Big Bang) a un flux du même ordre de grandeur que celui de la WiFi d’une box ADSL dans un bureau, mais possède une fréquence plus élevée. C’est quand même marrant ça, des « électrosensibles » se plaignent de la WiFi (sans omettre de diaboliser aussi tous les autres appareils électriques), mais ne disent absolument rien (et ne s’en plaignent pas) sur le rayonnement fossile qui a la même nature (et la même intensité de flux) que la WiFi. Plus précisément, les longueurs d’onde et fréquence typiques du rayonnement fossile sont respectivement 1,06 mm et 100 GHz.
  • Seuls les rayonnements ionisants (UV, rayons X, rayons gamma) sont nocifs et dangereux, à ce jour. Concernant les ondes radio, on n’a jamais pu le prouver.

 

Je commence à en avoir marre de ces journaleux qui entretiennent les peurs et les psychoses (sous prétexte de principe de précaution complètement irrationnel) sur des sujets qu’ils ne maîtrisent pas eux-mêmes, sans même avancer des chiffres concrets… Et les lecteurs se comportent en moutons, en croyant tout ce qu’ils lisent… Faites des maths pour comprendre !!! Vérifiez ! Ce n’est pas sorcier.

Une super Lune, encore ?…

Une vidéo YouTube de AstronoGeek :

AstronoGeek a raison.

  • La Lune passe à son périgée une fois par mois.
  • La différence entre une pleine lune de super Lune et une lune moyenne est négligeable et imperceptible à l’œil nu.

  • La super lune du 19 mars 2011 (à droite), comparée à une lune plus moyenne du 20 décembre 2010 (à gauche), vue de la Terre, ci-dessus.
  • Des spéculations ont affirmé que la super Lune aurait une influence sur l’augmentation de l’activité sismique terrestre mais aucune corrélation n’a été prouvée, notamment avec les séismes les plus importants.
  • La super Lune n’est pas vraiment de l’information, elle a seulement une justification médiatique, mais elle n’est pas un terme astronomique et ne recouvre pas de définition précise.
  • En 2012, je doutais déjà de la super Lune dans mon blog : par calcul j’avais pu établir la différence entre la super Lune et une lune ordinaire moyenne. Par rapport à la moyenne, le diamètre angulaire de la lune lors du périhélie n’augmente que de 5,7% à 7,9% environ, c’est relativement faible. Et par conséquent, la luminosité de la pleine lune nocturne lors du périhélie est 11,7% à 16,4% plus forte que lors d’une pleine lune moyenne. Ces différences sont imperceptibles à l’œil nu.

AstronoGeek a raison de pousser un coup de gueule contre les journaleux qui écrivent de la merde. Moi aussi, j’en ai marre. On a de moins en moins d’information de qualité au quotidien, c’est inquiétant. Cela devient de la malbouffe intellectuelle. Par paresse intellectuelle, les journaleux ne prennent plus soin de vérifier leurs sources, de se relire ; et les lecteurs influencés par ce qu’ils lisent ont de moins en moins d’esprit critique. Il faut réagir, on ne peut pas se résigner à cette décadence, sinon on court à la catastrophe…

La puissance organisatrice du hasard

Voici une vidéo intéressante de Mickaël Launay sur YouTube, qui montre que le hasard est à l’origine de structures organisées et complexes :

 

 

Mon opinion :

  • En science, Dieu (ou le dessein intelligent) n’est pas une hypothèse nécessaire.
  • Le hasard, à lui seul, explique de nombreux phénomènes, dont l’évolution des espèces et la sélection naturelle.

Opposition

Je l’avais déjà signalé ces derniers mois, mais je le réitère ici.

Je m’oppose formellement à ce que le contenu de mon blog, ainsi que mon identité « JP C Manson », soient réutilisés par des tiers sans mon consentement ! Seul mon blog jpcmanson.wordpress.com est authentique (rédigé par moi-même).

Seul le droit de citation est autorisé (après demande de permission), en ne citant que des textes courts, et avec un lien vers la source.

Le plagiat est un délit.

Idées inspirées de la loi de Pareto

Le principe de Pareto, aussi appelé loi de Paretoprincipe des 80-20 ou encore loi des 80-20, est un phénomène empirique constaté dans certains domaines : environ 80 % des effets sont le produit de 20 % des causes. Il a été appliqué à des domaines comme le contrôle qualité. On considère souvent que les phénomènes pour lesquels ce principe est vérifié suivent une forme particulière de distribution de Pareto.

  • 20% des causes ont 80% d’effets.
  • 0% des causes ont 0% d’effets.
  • 100% des causes ont 100% d’effets.

Équation des effets en fonction des causes :    y = 1 – e^(-8,04719*x)    (le principe de Pareto a peut-être une formule un peu différente, mais la mienne s’en approche sensiblement).

Mon équation est une solution de l’équation différentielle :   x(y – 1) = -y’

En essayant avec les équations habituelles de Pareto, je trouve que 1-(1/(1+0.086))^8.42747 donne la même courbe que y=1 – e^(-8,04719*x). Cela colle.

Qu’est-ce qu’on pourrait avancer avec ces pourcentages ?

    • En théorie, selon moi, construire optimalement les éoliennes dans 20% des endroits les plus venteux permettrait réaliser 80% du rendement total prévu. Les éoliennes, il ne faut pas en mettre partout, mais seulement là où c’est le plus nécessaire, c’est une affaire de bon sens et de calcul. Même raisonnement et mêmes proportions pour les panneaux solaires et le taux d’ensoleillement.
    • En théorie, selon moi, 8,6% des gens les plus intelligents (donc un QI d’au mois 120 sur l’échelle de Wechsler) parmi la population produisent 50% de la totalité des trucs intellectuels les plus utiles. Idée plus générale : si on recrute parmi 8,6% de la population les gens les plus compétents, on peut alors réduire de façon optimale les effectifs. Idée intéressante, qui reste à vérifier. En effet, si 100 employés (quelque soit leurs compétences) réalisent 100% du travail, alors seulement 9 personnes les plus compétentes suffisent pour réaliser 50% du travail. On voit l’intérêt de l’optimisation.
    • Empiriquement : 80 % des ventes dans un commerce sont réalisées grâce à 20% des meilleurs clients. Et aussi : 20 % des produits représentent 80 % du chiffre d’affaires.
    • Empiriquement : 80% des réclamations sont formulées par 20% des clients. Donc aussi : 50% des réclamations proviennent de 8,6% des clients.
    • Empiriquement : 80% d’accomplissement d’une mise au point nécessite 20% de l’effort (c’est notamment le cas dans une entreprise de développement de logiciels ou de jeux vidéo). Et aussi : 50% d’accomplissement avec 8,6% de l’effort.
    • Empiriquement : 20 % du trafic provient des mots clés principaux de la tête de la longue traîne. 80 % des mots clés secondaires de la queue de la longue traîne.
    • En théorie, 80% des contributions sur Wikipedia seraient réalisées par 20% des contributeurs. Mais selon la règle du 1%, sur Internet : moins de 1% de la population contribue de façon active, 9% participe occasionnellement et 90% sont des consommateurs passifs qui ne contribuent jamais. L’hypothèse de la répartition 90-9-1 aboutit à l’option soit d’intégrer la minorité émergente au pouvoir, soit de faire dégénérer la société.
    • Empirique : 20% des bugs informatiques sont responsables de 80% des plantages de logiciels.
    • Empirique : 20% des articles en stock représentent 80% du coût de stockage.
    • Empirique : 20% des lecteurs lisent 80% des livres vendus.
    • Empirique : 20% des citoyens imposables génèrent 80% de la trésorerie publique.
    • Empirique : 20% des mots de votre vocabulaire suffisent à vous exprimez dans 80% des cas.
    • En théorie, selon moi : 20% des pays de la planète engendre 80% de la pollution mondiale.
    • En théorie, selon moi : 20% des entreprises les mieux sécurisées en informatique dans le monde sont préservées de la menace de 80% des virus et cyber-attaques.
    • En théorie, selon moi : 80% des meilleurs scores dans un jeu vidéo sont réalisés par 20% des meilleurs joueurs.
    • En creusant d’autres exemples, on peut en trouver.

 

Pour conclure : si on résout 20% de nos problèmes principaux, on résout 80% de tous les problèmes. Et résoudre 8,6% des problèmes principaux, c’est résoudre la moitié des problèmes. On voit ici que les maths sont utiles pour mieux s’organiser et mieux décider. Il faut se concentrer sur un petit nombre de faits qui engendre le maximum de conséquences.

 

 

 

 

© 2017-2018 John Philip C. Manson

Médiumnité et ampoules électriques grillées

Supposons une émission télévisée avec un animateur populaire qui met un scène un « puissant médium » qui se prétend capable de griller par télékinésie les ampoules électriques à distance.

Supposons qu’il y ait un million de téléspectateurs qui regardent l’émission, ou plutôt 1 million de domiciles, et que dans chaque domicile il y ait en moyenne 16 ampoules électriques. L’émission est diffusée lors du début du crépuscule, au soir, pendant une durée de 2 heures.

Le médium se concentre (ou feint de se concentrer) sur sa capacité à agir à distance sur des ampoules électriques, prétendument par télékinésie. Soudain au cours de l’émission, le standard téléphonique explose : des milliers d’appels préviennent sur des phénomènes de grillage d’ampoules chez eux. Le médium a t-il donc un mystérieux pouvoir ?

Non ! Le hasard seul peut expliquer cela. Et le médium profite de ce hasard pour détourner l’attention des crédules.

En fait, le grillage des ampoules électriques c’est juste un problème statistique. Une ampoule électrique a une durée de vie limitée (vie de 1000 heures, donc probabilité de grillage de 1 sur 1000 lors de l’heure qui vient, soit une probabilité de 1 sur 501 environ pour qu’une ampoule qui dans un délai de 2 heures). Toutes les ampoules grillent naturellement, par usure normale. Ce qui fait que lorsqu’un charlatan prétend, lors d’une émission télévisée de grande audience, pouvoir faire griller des ampoules à distance juste en se concentrant pendant quelques instants, les quelques instants en question sont suffisants pour que sur le million de téléspectateurs regardant ladite émission, il y en aura 16 x 1000000 x (1/501) = presque 32000 qui verront en effet au moins une ampoule griller chez eux au moment d’allumer la lumière pendant le crépuscule.

Ensuite, les biais humains en matière d’expérimentation (crédulité, généralisation d’un exemple personnel, égoïsme et importance d’un cas personnel, et le fait qu’on ne retient que les exemples marquants) font le reste. Ainsi, ces 32000 personnes environ téléphonent toutes (ou presque) au même moment au standard téléphonique de l’émission qui est littéralement saturé : le charlatan devient crédible. Avec n’importe quel autre phénomène paranormal revendiqué, on peut réaliser n’importe quel autre trucage similaire. Dans la magie, il y a toujours un truc.

La crédulité n’engage que ceux qui se font fait piéger. Ce sont les pigeons qui entretiennent le charlatanisme et le business des escrocs.

Maintenant, voici un témoignage : http://forum.doctissimo.fr/psychologie/Paranormal/ampoules-grillees-semaine-sujet_15936_1.htm Une personne se dit troublée par ces coïncidences d’ampoules grillées les unes après les autres. Là encore, cela n’est qu’un phénomène statistique. Quand une maison possède 16 ampoules électriques, la probabilité de grillage d’une ampoule parmi les 16 est de 1-(1-(1/1000))^16 = 1 chance sur 63 dans un délai d’une heure. Il y a alors 1 chance sur 2 pour qu’au cours des prochaines 43 heures il y ait une ampoule parmi 16 qui grille. Au-delà de 197 heures d’utilisation des 16 ampoules, le grillage d’une ampoule devient probable à 95%. Et alors, en moyenne, parmi 16 ampoules en fonctionnement, on en remplace une toutes les 66 heures. Le délai n’est compté qu’à partir de l’instant où ces ampoules sont allumées. Quand on ne les allume pas, il n’y a pas d’usure. Bref, le grillage des ampoules électriques est statistique, ce n’est certainement pas une affaire de paranormal ni de psychologie (sauf quand on est aveuglément crédule à fond, ce qui peut être considéré soit comme une maladie mentale préoccupante, ou comme une grave paresse intellectuelle). Où est la liberté des personnes si celles-ci sont aveuglément crédules et croient absolument n’importe quoi ? Je pense que l’éducation et le recul critique doivent impérativement être un devoir. Un devoir qui garantit vraiment les libertés. Il n’y a pas de vraie liberté dans la croyance aveugle. S’informer est nécessaire.

Il faut toujours se méfier quand le hasard est caché, oublié ou nié par un charlatan ou un idéologue, comme dans le cas du créationnisme par exemple.

La science compare souvent un phénomène présumé avec le hasard, on essaie de voir alors si le phénomène se démarque significativement du hasard afin de juger de la crédibilité du phénomène. Mais à partir du moment duquel le hasard est oublié ou rejeté, on ne peut plus faire de comparaisons, et c’est la porte ouvertes aux impostures.

Cessons d’alimenter le business des charlatans, en doutant.

Pour en finir avec la clairvoyance et la télépathie

L’expérience réalisée avec les cartes de Zener vise généralement à déterminer le taux de clairvoyance ou de télépathie d’un sujet : un expérimentateur tire les 25 cartes (opaques pour éviter de voir les signes par transparence) l’une après l’autre (après les avoir bien mélangées), sans les montrer au sujet de l’expérience qui doit deviner le symbole inscrit sur chacune d’elles.

  • On a une probabilité de 1 sur 5 de deviner une carte donnée, au hasard.
  • La probabilité de deviner x cartes sur 25 est :
    P(x) = (25! / (x! * (25-x)!)) * (1/5)^x * (4/5)^(25-x)

Un taux normal de réussite (provoqué uniquement par des réponses données au hasard) est défini par ces intervalles de confiance (la moyenne est µ = 5, et l’écart-type vaut 2) :

  • 68,2% de chances pour un intervalle entre 3 et 7 réponses exactes sur 25.
  • 95% de chances pour un intervalle entre 1 et 9 réponses exactes sur 25.
  • 99% de chances pour un intervalle entre 0 et 11 réponses exactes sur 25.

On peut aisément calculer ces probabilités au moyen de la loi binomiale.

  • Faire significativement mieux que le hasard, c’est être en dehors de l’intervalle des 95%.

Vous pouvez vous tester ici :  http://www.charlatans.info/test-cartes-zener.php (moi je suis parfaitement dans la moyenne, c’est donc normal et ordinaire).

  • Pour prouver statistiquement l’existence d’un don de clairvoyance ou de télépathie, il faut obtenir au moins 10 réponses exactes sur 25 (correspondant donc à une probabilité pour que cela arrive au hasard de moins de 5%).
  • Obtenir 25 réponses exactes sur 25 (le score absolu) correspond à une probabilité de 1 sur 298 millions de milliards : il est donc impossible d’obtenir ce score-là par hasard.
  • Avec au moins 11 bonnes réponses, la probabilité pour que ça arrive au hasard est inférieure à 1%.
  • À ce jour, depuis 1920 (année de l’invention des cartes Zener), personne, absolument personne (sauf cas de fraudes ou supercheries démasquées), n’a atteint de façon objective et empiriquement honnête le score d’au moins 10 bonnes réponses sur 25. Jusqu’à preuve du contraire, la clairvoyance et la télépathie sont des mythes, des croyances sans fondement, du charlatanisme…

Alleluyah…

Cet apôtre veut imposer un repas végétarien dans les cantines scolaires… Mon avis ? Seule les sectes codifient le menu de nos assiettes…

Médicalement, un repas équilibré, qu’est-ce que c’est ? De la viande, des matières grasses, et des glucides, en quantités raisonnables, sans excès, mais sans suppression totale non plus. Quand on enlève la viande, ce n’est plus équilibré, et on met notre santé en péril.

Les choix alimentaires appartiennent à chacun, ce n’est pas l’affaire des idéologues !

Peut-on mesurer mathématiquement et objectivement les compétences des élèves ?

Avec Alfred Binet vers 1905, le concept psychométrique de QI a permis d’évaluer l’âge mental par rapport à l’âge mental moyen scolaire, afin de détecter des retards du développement. Le QI, à la base, ne mesure pas l’intelligence…

Sur un principe similaire (la courbe de Gauss), peut-on évaluer objectivement et mathématiquement les élèves d’une classe ? Je pense que oui, même si actuellement la notation par les profs est souvent subjective…

Comme exemple, je vais me baser sur le concept de QCM, un questionnaire basé sur 30 questions dont chaque question a une seule bonne réponse possible parmi 4 réponses proposées. Bref, un QCM rempli par un élève aura alors entre 0 bonne réponse (devoir noté 0/20) et 30 bonnes réponses (devoir noté 20/20).

Mais doit-on noter le QCM de façon proportionnelle, tel que le nombre de bonnes réponses est proportionnel à la notation sur 20 ? Non, et je vais expliquer pourquoi.

En fait, la conversion du nombre de bonnes réponses en note sur 20 est une loi logarithmique. En effet, à chacune des questions du QCM, il existe une probabilité de 1 chance sur 4 d’avoir une bonne réponse par question. Par conséquent, si un élève répond au hasard complètement au QCM, il aura en moyenne 7 bonnes réponses sur 30, dans ce cas on ne pourra pas lui attribuer une note de 7 sur 30, c’est-à-dire 4,66 sur 20. Obtenir un gain après avoir répondu au hasard, ce n’est pas légitime. Il faut donc prouver que l’on peut réaliser un score meilleur que le pur hasard, pour se démarquer de façon statistiquement significative. D’où une échelle logarithmique de conversion.

 

  • Entre 0 et 7 bonnes réponses sur 30, la note sera de 0/20. Dans cet intervalle, un élève connaît forcément les bonnes réponses mais aura choisi délibérément de mettre des réponses fausses. Même si c’est rare que ça arrive de faire zéro bonne réponse au hasard, sauf si l’élève ne répond pas du tout aux questions, c’est éliminatoire.
  • Avec 7 bonnes réponses, c’est le score le plus fréquent obtenu en moyenne par le hasard. Aucun point n’est attribué : 0/20. La note devient supérieure à zéro sur 20 au-delà de 7 bonnes réponses au QCM. C’est logique.
  • À partir de 12 points sur 30, la différence devient significative statistiquement (p-value = 0,05, distanciation de 2 écarts-types, et d’après la loi binomiale), auquel cas la note sera la moyenne : 10/20. L’écart-type est égal à 2,37.
  • À partir de 14 ou 15 points sur 30,  une nouvelle significativité (p-value = 0,01, distanciation de 3 écarts-types, et selon la loi binomiale), auquel cas la note sera de 12/20.
  • Enfin, avec 30 points sur 30, la note sera évidemment de 20/20. Mais la fonction dans son ensemble dans l’intervalle [7 ; 30] est logarithmique.
  • Équation approximative : note sur 20 = 13,51 * ln (0,1561 * bonnes réponses).
  • Il est possible d’ajuster autrement la notation : on pourrait par exemple attribuer 8/20 pour 12 points sur 30, mais cela ne changera que peu la courbe. Reste à définir correctement ce seuil. Le but de l’évaluation ici, c’est de voir l’effort fourni par rapport au hasard.

 

Voila ce que ça donne graphiquement, en première approximation :

 

L’intérêt d’un QCM correctement calibré est de mesurer le plus fiablement possible la quantité d’effort intellectuel par rapport à ce qu’on obtiendrait au hasard

Tu joues au hasard ? Donc tu n’as fait aucun effort, alors zéro pointé… Un peu d’effort afin de s’éloigner du hasard ? Tu gagnes alors des points. Mais plus l’effort sera important, plus ça devient dur d’essayer d’atteindre 30 bonnes réponses aux 30 questions du QCM (croissance logarithmique). C’est simple. Quel meilleur arbitre existe t-il de mieux que le hasard et de se mesurer contre lui ? C’est mieux que la subjectivité des profs dont les notes données à un élève varient sensiblement d’un prof à l’autre, même quand l’élève ne change pas sa méthode de travail (pour une même matière, aucun prof ne note pareil qu’un autre prof). Le travail ne se mesure que par le seul mérite, par l’effort de l’élève. Établir des quotas arbitraires et aveugles pour favoriser les élèves à avoir le Bac, de façon à ce qu’un maximum d’élèves aient le Baccalauréat, ce n’est pas une évaluation objective, ça ne veut rien dire. Il faut évaluer les compétences des élèves pour ce qu’elles valent réellement. Les mauvaises notes ne servent ni à juger ni à punir, mais à inciter à progresser grâce à des efforts réguliers (cela s’apprend, et peut ainsi devenir une bonne habitude). La réussite ça ne fonctionne pas autrement.

Détection mathématique de triche dans une classe d’école

Je propose un exercice inédit que j’ai inventé.

On suppose que la distribution des notes dans une classe de N élèves est une courbe gaussienne normale centrée sur une moyenne. Ces notes forment une courbe gaussienne classique qui reste habituelle, sans changements de notes majeurs.

Je pose m=intégrale de x=a à x=b de (1/(k*(2*pi)^0.5)) * e^(-(x-µ)²/(2*k²)).

m est ici une valeur entre 0 et 1, c’est la proportion d’élèves ayant une note comprise entre a et b, selon un écart-type k.

Il peut arriver que les élèves se mettent à travailler mieux afin d’améliorer leur note, ce qui modifierait du coup la courbe gaussienne. L’intérêt est d’évaluer la variation par rapport à la courbe habituelle.

Supposons un cas où la moyenne de la classe est µ = 14,01 (sur 20), lors du dernier trimestre par exemple. Son écart-type est de k = 3,76. On obtient alors une courbe gaussienne particulière, véritable signature instantanée de la classe.

On va ensuite exposer une problématique. Lors du trimestre suivant : parmi une classe de N élèves, x élèves obtiennent chacun une note supérieure ou égale à 18. La question : y a t-il eu triche ?

Probabilité pour que x élèves aient plus de 18 sur 20 : on calcule T = l’intégrale de x=18 à x=20 de (1/(3,76*(2*pi)^0.5)) * e^(-(x-14,01)²/(2*3,76²)) avec un écart-type k = 3,76.

La probabilité devient P = (N! / ((N-x)!*x!)) * T^x * (1-T)^(N-x).

Si la probabilité est inférieure à 0,05, on peut légitimement soupçonner une fraude. Dans notre exemple ci-dessus, si x est supérieur ou égal à 5, on peut avoir des doutes. Parmi ceux qui ont eu plus de 18/20, il y a des fraudeurs mais il peut y avoir aussi ceux qui ont mérité leur note. On peut détecter la fraude mais on ne peut pas identifier les tricheurs, le meilleur choix est de coller un zéro à tout le monde, comme sanction, on est sûr alors d’avoir atteint les tricheurs, même si on fait des victimes collatérales…

  • Voici un autre débat : la suppression des notes à l’école.

Certains pédagogues ont l’idée saugrenue de supprimer la notation des élèves… Supprimer les notes, c’est tromper les élèves. Et surtout, comment ferait-on pour détecter la probabilité de triche lors d’un examen de mathématiques par exemple ?

Le but des mauvaises notes quand on en reçoit, c’est d’identifier ses propres erreurs, de se remettre en question dans le but de s’améliorer. Je n’ai pas toujours été bon en maths autrefois (il y a bien longtemps), et une mauvaise notation contraint à redoubler d’efforts pour progresser. Quand on veut comprendre, on finit toujours par y arriver, on le peut. Les efforts réguliers produisent toujours une progression. Se dire « Je suis nul en maths » c’est en fait un effet nocebo (contraire du placebo), une méthode Coué avec des effets délétères et fatalistes. Si on ne note plus les élèves, on ne fera que masquer et nier un problème de plus. L’école est nivelée par le bas, et bientôt il ne finira par ne plus rien rester du tout !

  • La notation sur 10 ou sur 20 offre une évaluation fiable : elle est le meilleur critère pour évaluer le travail de l’élève et permet aux parents de savoir où en est leur enfant. La note est la mesure d’une compétence. Elle n’a pas pour seule vocation de « juger » un élève ni même de les comparer entre eux. Elle a aussi pour avantage d’être simple, en comparaison des autres systèmes d’évaluation par « acquisition de compétences » avec des codes de couleurs (rouge, orange, jaune, vert), de lettres (ABCD) ou de chiffres (de 1 à 4). Avec ces systèmes alternatifs, il serait plus complexe pour les enseignants de mesurer ce qui est acquis et ce qui ne l’est pas. Il y aurait aussi un risque que ces barèmes aboutissent à trop de laxisme. Les notes sur 10 ou sur 20 peuvent inciter les élèves à travailler pour progresser, à condition que les professeurs précisent ce qu’il faut améliorer et encouragent les élèves. A l’école, la sélection est naturelle, elle ne dépend que des efforts des élèves, un prof ne donne pas des mauvaises notes par injustice ni par sadisme. Moi je le dis clairement : niveler l’école selon les désirs des élèves ou celui de leurs parents, pour leur faire plaisir, ça ne les aide absolument pas ! Le progrès scolaire n’est possible qu’avec une contrainte ou une difficulté, une bonne note ça doit se mériter. Le remède contre l’échec scolaire ne tient qu’en un seul mot : le travail, aussi bien de la part des profs que celle de leurs élèves. La question à se poser : le problème est-il la notation elle-même ou les échecs qu’elle révèle ?

 

Exercice de maths

  • Une baignoire contient 140 litres. Le robinet d’eau chaude que alimente a un débit de 15 L par minute. En utilisant seulement le robinet d’eau froide, le remplissage de la baignoire prend 3 minutes de plus qu’avec les deux robinets. Calculer le débit d’eau froide. 

 

Ma solution : 

Soit D = débit d’eau froide, et t = temps de remplissage de la baignoire.

Alors (D+15)*t = D(t+3) = 140.

Je trouve D = 20 litres par minute, et t = 4 minutes.

 

Exercice de maths proposé aux bacheliers écossais

  • Un exercice de mathématiques au Bac en Ecosse a posé tellement de difficultés aux candidats au bac écossais que le barème de l’épreuve a dû être revu…

Jugeant l’exercice du crocodile trop difficile au même titre que l’ensemble de l’examen, les candidats écossais au Higher Maths exam, l’équivalent de l’épreuve de mathématiques du baccalauréat français, ont lancé une pétition en mai 2015. Intitulée « Expliquez-nous pourquoi l’examen de mathématiques a été élevé à un niveau impossible », elle a recueilli plus de 11 000 signatures, aboutissant à un abaissement de la note requise lors de cette épreuve pour obtenir le diplôme.

Je vais démontrer ici pourquoi le niveau en maths a vraiment baissé par rapport à autrefois, par l’examen analytique du problème. C’est catastrophique au même titre que ce qui se passe en France : le nivellement par le bas.

Un exercice de niveau Terminale, croyez-vous ? Non, moi je dirais plutôt de niveau 4e de collège… On va voir pourquoi.

L’exercice demande d’estimer en combien de temps le crocodile atteindra le zèbre, selon s’il se déplace dans l’eau ou sur terre.

« Un crocodile a repéré une proie située à 20 mètres de lui sur la berge opposée d’une rivière. Le crocodile se déplace à une vitesse différente sur terre et dans l’eau. Le temps que met le crocodile à atteindre le zèbre peut être réduit s’il traverse la rivière en visant un certain point P, placé à x mètres du point de départ sur l’autre rive (voir schéma).

Le temps T nécessaire pour faire le trajet est donné par l’équation indiquée ci-dessous (en dixièmes de seconde).

Calculer en combien de temps le crocodile rejoindra le zèbre uniquement à la nage.

Calculer en combien de temps le crocodile rejoindra le zèbre s’il coupe la rivière au plus court.

Entre ces deux extrêmes, il existe une valeur de x qui minimise le temps nécessaire. Trouver cette valeur de x et en déduire ce temps minimum. »

 

Tout d’abord, pour résoudre le problème, on va examiner l’équation et le schéma.

Une vitesse c’est une distance divisée par un temps. Donc le temps est égal à une distance divisée par une vitesse.

Vous remarquez que le trajet dans la rivière est une hypoténuse de triangle-rectangle. Je pose R la largeur de la rivière, puis L la longueur de l’hypoténuse, et on a x (déjà défini) qui est le 3e côté.

On sait avec Pythagore que R² + x² = L². C’est classique.

Je pose T1 tel que T1 = L / V1, où T1 est le temps parcouru exclusivement dans la rivière, et où V1 est la vitesse du crocodile dans la rivière.

Je pose T2 tel que T2 = (20 – x) / V2, où T2 est le temps parcouru exclusivement sur terre, hors de la rivière, et où V2 est la vitesse du crocodile sur la terre ferme.

Je pose T(x) = T1 + T2, pour avoir T(x) qui est la durée total des trajets.

Mais aussi, on a T1 = L / V1 = (x² + R²)^(1/2) / V1. On obtient donc la forme T(x) = [(x² + R²)^(1/2) / V1] + [(20 – x) / V2] qui est exactement la forme de l’équation de l’énoncé : T(x) = 5(36+x²)^(1/2) + 4(20-x).

Pour le calcul du temps le plus court, il est alors exclu que le crocodile se déplace uniquement en rivière, ou uniquement sur terre, il y a obligatoirement une étape en rivière et une étape sur terre ferme.

Pour calculer le temps T(x) le plus court, on remarque que la fonction atteint un point x où T est minimum, alors on calcule la dérivée dT(x)/dx = 0, et je trouve x = 8 mètres. Pour les autres valeurs de x, le temps est plus long.

Si on pose x = 20 mètres, alors le crocodile ne fait que nager, sans étape sur terre ferme. Une partie  de l’équation s’annule, et on aura T(x) = (x²+R²)^(1/2) / V1 = 5(36+20²)^(1/2) = 104,4.

Si on pose x = 0 mètre, alors le crocodile ne fera que marcher sur terre ferme, hors de la rivière (excepté le trajet R), et T(0) = 110.

Tandis qu’avec x = 8 mètres, on aura le temps le plus court : T(8) = 98.

J’ai répondu aux trois questions de l’exercice, cela n’a pris que quelques minutes… Affirmer que l’exercice est insoluble, c’est se foutre du monde, vraiment !

Au fond, le problème n’est pas les maths. Le problème des élèves est simple : ils ne savent pas lire un énoncé, par incompréhension de leur propre langue maternelle, et aussi parce qu’ils n’ont pas appris à réfléchir et à raisonner. Sans ces clés, on ne peut rien produire de bon en maths.

Peut-être que certains trouveront que j’exagère. Non, je suis sérieux.

  • Autre preuve : un exercice ci-dessous datant de 1950, à l’épreuve du certificat d’études, en France, et destiné à des jeunes de 13 ou 14 ans.

« La distance Paris-Reims est de 155 km par le rail. Le train de marchandises Paris-Reims démarre de la gare de l’Est à 8h30 et roule à la vitesse moyenne de 60 km/h. Un express part de Reims en direction de Paris à 9h15 et roule à la vitesse moyenne de 90 km/h. A quelle heure se croiseront-ils et à quelle distance de Paris ? »

Solution : les trains se croisent à 9h59 à 89 km de Paris. La solution tient en une équation assez simple.

Quand on donne cet exercice à des élèves de Terminale, il y a des surprises… Certains n’y parviennent pas. C’est une réalité propre à notre époque. C’est catastrophique…

 

 

Citation du jour

  • « Tout est hasard dans le monde, pourvu que l’on donne ce nom à un ordre que l’on ne connaît point. » (Fontenelle)

L’imposture des QI de célébrités dans les médias

Voici un exemple d’article (parmi de nombreux autres) qui relate les QI de célébrités : http://www.sympatico.ca/actualites/decouvertes/plus-grands-qi-1.1484724

Je vais montrer pourquoi souvent les médias racontent n’importe quoi en s’emmêlant les pinceaux…

Nous connaissons tous les fameux tests de QI. Cependant, il existe deux échelles différentes de mesure du QI : celle de Wechsler (la plus utilisée), et celle de Cattell. L’échelle de Wechsler est basée sur un QI moyen de 100 avec un écart-type de 15 points. L’échelle de Cattell est basée aussi sur un QI moyen de 100, mais avec un écart-type de 24 (ce qui n’est pas du tout pareil ni équivalent).

Or, dans l’article cité en lien ci-dessus, je cite : « la majorité de la population se retrouve dans la zone de 85 à 115 points de QI ». Remarque : c’est seulement vrai pour le test de Wechsler, mais faux pour le test de Cattell (car entre 76 et 124).

Ensuite, en regardant le QI des personnalités citées, on voit que les QI dépassent la valeur 175, et vont même jusqu’à 225. Or, le test de Wechsler s’échelonne jusqu’à 175 points (jusqu’à 195 ou 200 selon d’autres sources), tandis que l’échelle de Cattell va jusqu’à 220. On peut vérifier ça en examinant l’intéressante page du site Douance via un tableau de conversion : http://www.douance.org/qi/tabqi.html

Visiblement, quand on lit sur le web de nombreux sites relatif au QI, les journalistes s’embrouillent en mélangeant le test de Wechsler et celui de Cattell. Et s’arrangent même pour dépasser le QI maximum possible, mais bon…

Après avoir examiné le tableau de conversion du site Douance : http://www.douance.org/qi/tabqi.html
j’ai pu établir que le calcul de conversion d’un test de QI à l’autre suit une loi linéaire, si on considère que le tableau est exact. En effet, si on pose W = QI de Wechsler et C = QI de Cattell, je trouve que :  C = 1,6 W – 60. Par conséquent, W = (C+60) / 1,6.

Bref, lorsque les médias ne précisent pas si les QI mentionnés sont de l’échelle de Wechsler ou celle de Cattell, les infos sont donc à prendre prudemment avec des pincettes, surtout quand ils mélangent à tort les deux concepts (une marge normale de Wechsler [68,2% de la population] par-ci, puis des QI de Cattell par-là…)

Car sans référentiel, les chiffres égarés ne veulent rien dire du tout et n’ont pas de sens !

Pareil quand les médias évoquent le QI d’Albert Einstein ou celui de Newton ou Galilée. C’est n’importe quoi. Les premiers tests psychométriques de QI furent inventés en 1905 (pas avant !!!) par Alfred Binet pour détecter les retards du développement cérébral par rapport à une moyenne d’âge d’enfants scolarisés. Mais les tests de QI contemporains pour adultes sont postérieurs (de peu) à la mort d’Einstein (1955) ! Einstein n’a jamais passé de test de QI. Quant à Isaac Newton et Galilée (17e siècle), c’était longtemps avant que le concept de QI soit inventé ! On ne connaît PAS le QI d’Einstein ni ceux de Newton et Galilée, on ne le saura jamais, il est donc impossible de faire des comparaisons. On ne connaîtra jamais non plus le QI du génial mathématicien Ramanujan, mort en 1920.

Les médias racontent souvent des inexactitudes, et dans de nombreux domaines, pas seulement sur le concept de QI… Soyez sceptiques, soyez critiques, soyez analytiques.

 

 

Enseignement et nivellement par le bas

L’école fabrique des crétins. Avant on faisait des maths, maintenant on parle de people et de sport, et de slogans publicitaires… C’est ça l’école actuelle ?

Le QI baisse. Pour moi, le QI n’est pas inné, la baisse du QI est l’indice d’un manque de travail, de réflexion et d’effort. Certains attribuent la baisse du QI à des facteurs fatalistes, comme par exemple les perturbateurs endocriniens. Il faut arrêter de s’inventer des excuses pour se dédouaner d’un sérieux problème… Le problème c’est l’enseignement.

La preuve : la Chine est polluée comme nous par les pesticides (peut-être même pire en l’absence de normes environnementales), mais le QI des chinois a augmenté !

Bref, les journalistes publient encore et toujours des torchons politiquement corrects. Le niveau des programmes à l’école, et l’influence abrutissantes de la TV sont des causes évidentes d’altération de l’intelligence.

Le niveau ne baisse pas, il s’effondre. Monsieur Brighelli a raison :

L’intelligence des arbres, encore un mythe

Vu sur un magazine TV :

Je cite : « Les arbres sont dotés d’une véritable forme d’intelligence ».

Cela m’étonnerait… Les arbres n’ont aucun système nerveux… Les arbres émettent des odeurs peut-être mais ils ne sont pas intelligents, ils sont biologiquement incapables de raisonner.

Je cite : « Indispensables à notre survie, ils sont aussi nos meilleurs alliés face au réchauffement climatique ».

Ah ! La phrase discrète que les médias ne manque pas de glisser systématiquement. Encore le réchauffement climatique… Et la pollution, et l’épuisement des ressources naturelles, ça ne compte pas ?…

Les appareils « écolos », un vrai désastre écologique

  • À lire :  http://www.01net.com/actualites/clavier-logitech-k750-symbole-de-l-obsolescence-programmee-et-vrai-desastre-ecologique-1281770.html et lire aussi les commentaires en bas de page.

Un clavier d’ordinateur, sans fil, à l’énergie solaire, ça paraît cool comme solution alternative à la consommation de masse bouffeuse d’énergie. Une solution propre ? Pas du tout… En effet, au bout de 5 ans, ça ne fonctionne plus, et la batterie n’est pas remplaçable.

Pire quand il s’agit de voitures électriques : après de nombreux rechargements il y a perte d’autonomie, près de 30 à 40% de perte après 4 années d’usage…

L’écologie, ça va nous coûter plus cher que les énergies classiques, et ça se révèle finalement plus polluant quand on balance le matériel obsolète à la poubelle…

C’est quand même ironique. Je possède un vieux radio-réveil, daté de 1984 ou 1985, fabriqué au Japon, et il fonctionne toujours. Et aussi un simple petit réveil à aiguilles : âgé de plus de 32 années il fonctionne encore très bien.

L’idéologie écologique, polluante, menteuse et marchande d’illusions, est une arnaque méprisable.

 

Les voitures électriques en France, une utopie ?

Est-il réaliste de produire des millions de voitures électriques en France dans le contexte de la production électrique totale annuelle française ?

  • En moyenne, une voiture parcoure 15 000 km par an. (source = http://www.linternaute.com/auto/magazine/enquete-en-ligne/enquete-en-ligne-vous-et-votre-voiture/une-moyenne-de-15-000-km-an.shtml)
  • Une voiture Peugeot 308, la plus sobre par exemple, consomme 6,7 L d’essence (octane) par 100 km. (source = http://www.fiches-auto.fr/essai-peugeot/motorisations-449-moteurs-consommation-peugeot-308.php)
  • La combustion de l’octane correspond à 44,307 MJ/kg, soit 31,15 MJ par litre d’octane, sachant que 1 kWh = 3,6 MJ. (source = https://jpcmanson.wordpress.com/2011/12/06/thermochimie-etude-de-divers-combustibles/)
  • Par conséquent, une voiture (comme la Peugeot 308 la plus sobre) consomme 31350 MJ d’énergie par an.
  • Il y a actuellement 38,4 millions de voitures en circulation en France, donc si nous remplacions toutes ces voitures à combustion par des voitures électriques, il faudrait pouvoir les alimenter en électricité avec une production électrique suffisante d’environ 334,4 milliards de kWh. Or la production électrique totale en France (en 2015) est de 416,8 milliards de kWh. Il faudra donc doubler la production électrique totale actuelle afin de pouvoir assurer l’alimentation électrique des batteries de toutes ces automobiles, tout en continuant aussi de fournir l’électricité nécessaire aux autres besoins… Mais certains veulent diminuer la part du nucléaire de moitié d’ici 2025. (source = http://www.leparisien.fr/environnement/nucleaire-valls-confirme-la-reduction-de-moitie-en-2025-12-02-2015-4527471.php)

 

Ni la filière éolienne ni la filière photovoltaïque ne pourront pas assurer les besoins des voitures électriques, c’est irréaliste… N’importe quoi…

Liste de concepts liés aux pseudo-sciences et l’irrationnel

Voici une liste de mots-clés d’articles Wikipedia relatifs aux pseudo-sciences, sous réserve d’erreurs ou d’omissions :

Acupuncture
Affaire Bogdanoff
Agriculture biodynamique
Alien Theory
Alignement de sites
Amaroli
Analyse transactionnelle
Anatoli Fomenko
Anthroposophie
Antigravité
Astroarchéologie
Astrologie
Astrosociobiologie
Atlas de la Création
Aura (parapsychologie)
Auriculothérapie
Barbara Ann Brennan
Bernard Werber
Biodynamie
Biofiltre
Biokinergie
Bion (organique)
Biophoton
Biorythme
Biorésonance
Biosphère II
Bioénergétique
Boule lavante
Bracelet à hologramme
Burkhard Heim
Canular Apollo 20
Cartomancie
Catalyseur d’énergie de Rossi et Focardi
Cercle de culture = Agroglyphes
Champ morphogénétique
Channeling
Chasse au fantôme
Chembuster
Chemtrail
Chirologie
Chiropratique
Chirurgie psychique
Chromathérapie
Clairaudiance
Clairvoyance
Cloudbuster
Communication facilitée
Communication intuitive
Complexité irréductible
Contestation de la responsabilité du VIH dans le sida
Convergence harmonique
Corps éthérique
Cristallisation sensible
Cryptobotanique
Cryptozoologie
Créationnisme
Créationnisme Jeune-Terre
Dentisterie holistique
Dessein intelligent
Détoxication
Développement personnel
Dianétique
Divination mathématique
Drainage lymphatique manuel
Ectoplasme (parapsychologie)
Électrolipolyse
Élixirs floraux de Bach
Étiopathie
Effet Allais
Effet CREIL
Emotional Freedom Technique
Enfant indigo
Ernst Lecher
Exobiophilie
Expérience de mort imminente
Eye movement desensitization and reprocessing
Feng shui
Fondation John Templeton
Fritjof Capra
Fusion froide
Génodique = Protéodie
Georges Lakhovsky
Gluten
Graphologie
Géobiologie (radiesthésie)
Halothérapie
Hans Hörbiger
Homéopathie
Homo sapiens. Une nouvelle histoire de l’homme
Influence lunaire
Injection d’eau dans les moteurs
Institut de recherche sur les expériences extraordinaires
Inédie
Iridologie
Isopséphie
Jacques Benveniste
Jacques Bergier
Jean-Émile Charon
John Hagelin
Journalisme jaune
Judy Zebra Knight
Junk science
Karl H. Pribram
Ken Wilber
Kinésiologie
Kinésiologie appliquée
La Bible : le Code secret
Le centième singe
Lithothérapie
Magnétiseur
Magnétisme animal
Magnétothérapie
Masaru Emoto
Mayanisme
Mesure subjective
Métapsychique
Morphopsychologie
Moteur Pantone
Moteur à eau
Mysticisme quantique
Médecine anthroposophique
Médecine non conventionnelle
Médecine quantique
Méditation transcendantale
Médium (spiritualité)
Mémoire de l’eau
Méthode Feldenkrais
Méthode Silva
Morphobiologie
Naturopathie
Nexus (revue)
Nibiru
Nombre d’or
Numérologie
Oniromancie
Orgone
Orgonite
Para-science
Paranormal
Parapsychologie
Phénomène de voix électronique
Photographie Kirlian
Phrénologie
Physiognomonie
Physique synergétique
Pierres d’Ica
Plante dépolluante
Pouvoir des pyramides
Prana
Prescience
Programmation neuro-linguistique
Pseudohistoire
Psi (parapsychologie)
Psychanalyse
Psychogénéalogie
Psychokinèse
Psychologie populaire
Psychologie transpersonnelle
Pyramidologie
Pédagogie Steiner-Waldorf
Quantic Potential Measurement
Que sait-on vraiment de la réalité !?
Radiesthésie
Rebirth
Régime alcalin
Reiki
Robert Charroux
Rudolf Steiner
Rumpologie
Rupert Sheldrake
Réflexologie
Réseau Hartmann = Ernst Hartmann
Science chrétienne
Sensibilité électromagnétique
Sirius C
Sophrologie
Source d’ions hydrogène négatifs
Sourcier
Supplément alimentaire minéral miraculeux (MMS)
Syndrome du vrai croyant
Système de classification de Hynek
Tarot divinatoire = Tarologie
Théorie de Heim
Théorie de la corrélation d’Orion
Théorie des anciens astronautes
Théorie psychanalytique de la dépression
Théorie vérificationniste de la signification
Théories de la Terre creuse
Thérapie de conversion
Thérapies des fascias
Thérapie par aversion
Toucher thérapeutique
Triangle des Bermudes
Trofim Denissovitch Lyssenko = Lissenkisme
Télépathie
Ufologie
Ummo
Unité Bovis
Université interdisciplinaire de Paris
Vin biodynamique = Viticulture biodynamique
Voyage astral
Voyance
Weleda
Zecharia Sitchin

L’idéologie postmoderniste

Vu sur Facebook :

La foi naïve en la science a donné naissance à une monstruosité idéologique en réaction : le relativisme total. Aujourd’hui nous en sommes arrivé à un point où même la science est considérée comme égale ou inférieure aux récits et aux mythes par certains intellectuels.

Le résultat est un nivellement vers le bas de l’esprit critique, du jugement critique et de l’exigence épistémologique. Croire que tous les points de vue se valent ne vaut pas mieux que croire que l’on détient la vérité.

Citation du jour

  • Savoir, et ne point faire usage de ce qu’on sait, c’est pire qu’ignorer.
    Alain (Propos sur l’éducation, p.176, P.U.F 1969)
  • Le doute n’est pas au-dessous du savoir, mais au-dessus.
    Alain (Propos sur l’éducation, p.147, P.U.F 1969)

Sujets du bac de philo 2017

On connaît à présent les sujets du bac de philosophie 2017 :

  • Suffit-il d’observer pour connaître ?
  • Tout ce que j’ai le droit de faire est-il juste ?
  • La raison peut-elle rendre raison de tout ?
  • Une œuvre d’art est-elle nécessairement belle ?
  • Défendre ses droits, est-ce défendre ses intérêts ?
  • Peut-on se libérer de la culture ?
  • Y a-t-il un mauvais usage de la raison ?
  • Pour trouver le bonheur, faut-il le rechercher ?

 

De l’esprit critique sur Wikipedia

Wikipedia est souvent controversé. Mais c’est facile de critiquer quand on ne prend aucune initiative. Wikipedia est à améliorer. Seulement environ 16 000 contributeurs sur les 2 millions et demi d’inscrits ont contribué lors des 30 derniers jours. C’est peu.

J’ai pris l’initiative de participer au projet « Scepticisme » sur Wikipedia.

Face à l’article « Alignement de sites » (https://fr.wikipedia.org/wiki/Alignement_de_sites) qui comportait une croyance mystique déterministe selon laquelle les alignements avaient une signification profonde, j’ai alors créé un nouvel article, intéressant, que j’ai traduit depuis l’anglais afin d’apporter un éclairage scientifique et sceptique :

https://fr.wikipedia.org/wiki/Alignement_de_points_aléatoires

Bref, les alignements de points générés aléatoirement peuvent facilement se produire, sans qu’il y ait un sens mystique. Il n’y a que du hasard. Quelques mois plus tôt, j’avais déjà parlé de ces alignements, mais cette fois on connaît les équations mathématiques en détail.

Mais l’anecdote est un cas parmi d’autres. Tout Wikipedia a besoin d’y faire le ménage, il faut partager les points de vue critiques autant que possible, et la besogne reste longue et difficile. C’est un travail d’équipe.

Wikipedia

Contribuer à Wikipedia est une mission de service public importante pour informer les citoyens de façon pertinente et utile. Dans ce monde moderne et du tout numérique, un traitement critique des pseudosciences (plutôt qu’une promotion aveugle) est nécessaire.

Le niveau d’alphabétisation scientifique de la population est d’une importance cruciale dans notre société. Les individus font plus facilement des choix raisonnés s’ils peuvent éclairer leurs décisions avec des connaissances fiables. Pour cela, ils doivent savoir estimer la fiabilité des informations mises à leur disposition. Notre devoir a pour vocation de donner au public des clés de compréhension du monde basées sur des théories et des faits solidement étayés plutôt que de le flatter dans le sens de ses croyances irrationnelles.

Hélas, on ne peut que constater l’importance du temps de médiatisation voué à promouvoir ou à présenter sans esprit critique des dizaines de pseudosciences et de médecines non conventionnelles (c’est-à-dire des « médecines » dont les vertus thérapeutiques sont ou bien réfutées ou bien encore à prouver). Sans analyse critique, les allégations des pseudo-experts sont reçues comme des vérités validées par le service public et ajoutent un argument d’autorité (comme « vu à la TV ») dans l’arsenal de personnes incapables de prouver la justesse de leurs thèses et qui vivent donc de la crédulité des gens.

Les journalistes devraient être parmi les premiers à se former pour comprendre la démarche scientifique et connaître les biais cognitifs qui leur font écrire des articles. On ne peut que constater des lacunes importantes au sujet de la manière dont sont produites les connaissances scientifiques et sur le bon usage du doute méthodologique. Vigilance…

Wikipedia est l’outil idéal pour agir directement sur des textes qui sont d’une grande visibilité dans les moteurs de recherche.

Sur la vitamine C

J’ai examiné le sujet du Bac 2003 (métropole) de physique/chimie.

L’encadré d’introduction de l’énoncé m’a interpellé :

En réalité, le rôle soi-disant antiseptique et anti-cancer de la vitamine C n’a jamais pu être démontré. Il s’agit d’une croyance tenace, même le prix Nobel Linus Pauling y croyait…

 

  • Référence : http://www.thierrysouccar.com/blog/mega-doses-de-vitamine-c-cancer-et-sante-la-fin-de-lhistoire

 

 

Critique de Charon

Il est louable d’associer science et philosophie. Il est cependant dangereux de mêler la science avec la pseudoscience et le mysticisme.

Jean Charon disait que le monde n’est pas inerte et que l’Univers est entièrement vivant. « Je crois que l’Univers est sacré, mais je sens que l’objectif de cet Univers est de se faire connaître d’abord ». Sa priorité était d’expliquer comment est faite la Matière, qu’il appelait  » la psychomatière « , considérant qu’elle est à la fois matière et esprit. Pour cela, il a proposé un modèle représentant à la fois la partie Matière et la partie Esprit, l’éon, un élément matériel qui serait porteur de l’Esprit et de la conscience. On est alors là dans le domaine de la croyance, pas dans celui de la science. On est alors dans le déni de la réfutabilité, à travers une dénaturation de la physique quantique.

La vie se manifeste à travers des structures matérielles appelées organismes vivants, ou êtres vivants, reconnaissables par la grande complexité de leur structure interne et leur activité autonome ainsi que la capacité de se reproduire. Ce que ne sont pas les planètes, les gaz, les métaux… Le mythe du fluide vital s’est effondré lorsqu’on a découvert comment synthétiser des molécules biochimiques, comme l’urée.

L’hylozooïsme est un concept philosophique (la matière dotée de vie), mais dans les faits, l’univers n’est pas omni-vivant. Il n’y a pas de but dans l’évolution et la cosmologie.

La vie et la conscience émergent de la matière inerte, par l’organisation de matière complexe (neurones, tissus cellulaires différenciés).
Il est hasardeux de philosopher sur le vivant avec la méconnaissance de la biochimie par exemple.

Il y a une différence entre l’expérimentation du réel, et élever un concept philosophique irréfutable comme dogme.

Que penser de Charon ? La « relativité complexe » dont il est le pionnier, et surtout les conséquences qu’il en tire, doit bien faire hurler de rire les gens compétents sur le sujet. Quand il s’est mis à expliquer, après des dizaines de pages de calculs, que tout cela démontrait que l’électron avait des propriétés « psychiques », on se dit qu’on perd son temps en pareilles élucubrations mystiques. Charon voulait donner une base physique aux idées de Teilhard de Chardin, mais c’est foiré… Pierre Teilhard de Chardin (qui fut un philosophe, théologien et paléontologue français ; il avait une conception spiritualiste du cosmos ; il a récupéré des sciences hors de leur contexte comme la théorie de l’évolution pour inventer le concept de point Oméga qui serait le but ultime de l’évolution à travers les concepts de noosphère et de Christ cosmique, mais la théorie de l’évolution n’a aucun déterminisme car chaque étape évolutive des espèces est imprévisible ; il s’agit d’un cas criant d’amalgame idéologique entre la science et la religion).

Pour revenir à la relativité complexe, Charon postule le doublement du nombre de dimensions de l’espace-temps de Minkowski utilisé par Einstein (soit 2 x 4 = 8 dimensions) en ajoutant aux 4 dimensions réelles (3 d’espace et 1 de temps), 4 dimensions supplémentaires affublées de i, l’unité imaginaire qui donne -1 élevée au carré, à l’instar du plan complexe, en maths, qui possède deux fois plus de dimensions qu’une simple droite matérialisant l’ensemble des nombres réels. L’espace réel, visible, est donc d’un seul coup doublé d’un espace qu’il qualifie d’« imaginaire », invisible, dont il démontre certaines propriétés (à défaut d’en démontrer l’existence).
Tout d’abord, les lois de l’entropie s’inversent, et cet espace devient « négentropique » (à entropie négative). Dans notre monde – pour donner une interprétation imagée la deuxième loi de la thermodynamique – c’est le bordel et le désordre va croissant, alors que dans le monde imaginaire, l’ordre s’organise tout seul et va croissant. Charon annonce que les particules élémentaires ont leur reflet dans ce monde imaginaire, qu’il appelle des éons. Il n’en faut pas plus pour en déduire que ces éons, générateurs d’ordre et en liaison constante depuis le big-bang avec le reste de l’Univers, sont le siège de la conscience, de la mémoire et de l’Esprit, cette chose invisible. On reste confondu devant un tel ramassis de new age. Tout le discours est enjolivé de jolies courbes et équations relativistes supposées apporter de la crédibilité, via un bagage mathématique sérieux, à ce tissu d’âneries.

C’est donc à prendre avec des pincettes : ce n’est scientifiquement pas crédible, et je croyais que, parallèlement, la philo était l’art de raisonner.

Du côté de la vulgarisation scientifique, je conseillerais plutôt Feynman et Stephen Hawking comme critère de crédibilité.

Citation du jour

  • Trois bougies repoussent les ténèbres : la vérité, la connaissance et les lois de la nature.   (proverbe celtique)

Amnistie ou innocentiation ?

Si on y réfléchit, un gouvernement qui accorde l’amnistie aux homosexuels, c’est un peu comme si l’Allemagne d’aujourd’hui prétendait amnistier les Juifs assassinés par les Nazis à Auschwitz…

En quoi le Royaume-Uni est-il choquant ?

Seuls les individus qui ont été légitimement condamnés peuvent prétendre avoir droit à une amnistie ou à recevoir un pardon.

La discrimination homophobe et des traitements inhumains, c’est une injustice, cela n’a rien à voir avec la justice, ni avec l’amnistie, ni le pardon.

Car prononcer l’amnistie revient à encore accorder une valeur à une « loi » injuste. C’est le comble.

Ce n’est pas à une amnistie que Alan Turing ou Oscar Wilde (et des dizaines de milliers d’autres victimes) ont droit, mais à une réhabilitation totale, par une annulation d’une « loi » injuste.

Amnistier les gays condamnés, c’est s’attribuer abusivement encore quelque pouvoir légitime pour juger de la sexualité d’autrui.

Une amnistie ne contredit pas la décision judiciaire et elle n’efface pas l’historique pénal d’une personne. Il aurait mieux valu d’innocenter les gays injustement condamnés.

  • C’est au Royaume-Uni de demander pardon à genou auprès des homosexuels, ce n’est pas aux homosexuels de s’excuser d’être ce qu’ils sont afin de recevoir un « pardon »…
  • Amnistier quelqu’un, c’est lui pardonner sa « faute », mais c’est toujours le définir comme fautif, alors que ce sont plutôt les autorités de l’époque qui sont entièrement responsables de ces traitements inhumains contre les gays…
  • Le Royaume-Uni avait condamné Alan Turing, cela a poussé celui-ci au suicide. Les responsables des mauvais traitements et de la mort de Turing sont impardonnables…

Théorie du genre

Sa sainteté le pape accuse les manuels scolaires de propager la théorie du genre.
Il dit que « c’est contre nature, un endoctrinement, une colonisation idéologique »

Mais le catholicisme, qu’est-ce que c’est ?
C’est une doctrine qui interdit aux curés de se marier et de fonder une famille. Sans oublier non plus les scandales de crimes sexuels. C’est contre-nature

Et les peuples des Amériques et d’Afrique qui ont été convertis de force ces derniers siècles dans la violence et la peur ? Et le dogme de l’infaillibilité du pape ? N’est-ce pas là une colonisation idéologique ?

Le catholicisme est mal placé pour donner des leçons.

Retire la poutre que tu as dans ton œil avant de retirer la paille qui est dans l’œil de ton prochain…

La théorie du genre, c’est quoi concrètement ? C’est un champ d’études universitaires né dans les années 1960, en parallèle du développement du féminisme. Son propos : étudier la manière dont la société associe des rôles à chaque sexe. Exemples : « pourquoi les hommes font moins le ménage », « pourquoi une femme mécanicienne ou un homme sage-femme paraissent insolites », etc. C’est donc l’étude de la hiérarchie entre les sexes afin de dénoncer des inégalités et les stéréotypes entre genres.

Mais il n’existe pas de « théorie » au sens idéologique ou scientifique du terme, pas de programme secret ou caché visant à « manipuler » les enfants, ni de situations où l’école chercherait à habiller les garçons en filles…

L’« idéologie du genre » est une rumeur venue des Etats-Unis et des groupes ultraconservateurs, ainsi que l’extrême-droite, qui ont inspiré leurs homologues en Europe.

Dans la réalité, la loi française prévoit l’enseignement de l’égalité homme-femme à l’école depuis 1989, et des cours d’éducation sexuelle sont prévus à l’école depuis une loi de 2001. On n’observe donc aucune « théorie du genre » dans les écoles, les réflexions sont plutôt menées autour des questions sur l’égalité entre les hommes et les femmes.

  • Réédition : encore pire que le pape lui-même, Sarko soutient ce dernier : http://www.bfmtv.com/politique/sarkozy-soutient-le-pape-francois-najat-vallaud-belkacem-nous-fait-honte-1044778.html

Sur la probabilité de mourir au cours de la même année

L’âge moyen au décès d’un Français (homme ou femme) est d’environ 78 ans plus ou moins 11 ou 12 ans, c’est ce qui est observé. Cette distribution statistique permet de quantifier la probabilité de mourir au cours de l’année selon l’âge.

La probabilité de mourir à l’âge de A ans est P = 0,000006634 * e^(0,107192 * A). Cette probabilité de mourir augmente exponentiellement avec l’âge.

  • Soit un groupe de 3 hommes, âgés de 34 ans, 42 ans, et 34 ans. Quelle est la probabilité pour que ces 3 hommes meurent tous au cours de l’année ?

Cette probabilité est d’un risque sur 25,9 milliards. C’est faible. Mais cet événement s’est pourtant produit en 1986 (en janvier, juin et novembre, chacun à 5 mois d’intervalle) en ce qui concerne Coluche, Thierry Le Luron et Daniel Balavoine.

trio Cliquer sur image pour agrandir

Mourir jeune est si injuste. Et c’est louche quand on sait que ces 3 artistes irremplaçables disaient des vérités qui dérangeaient…

De nos jours, la TV est minée par l’auto-censure, elle est devenue complètement aseptisée.

 

Les inondations en France en juin 2016 sont-elles dues au réchauffement climatique ?

Selon le président de la République, François Hollande, les fortes pluies et les inondations montrent l’importance de lutter contre le réchauffement climatique.

Oui il faut lutter contre le réchauffement climatique dans la mesure du possible.Mais le lien entre le réchauffement climatique et les inondations qui saccagent la France en juin 2016 n’est pas démontré.

Au cours du 20e siècle, la Seine connut plusieurs crues : en 1910, en 1924, en 1945, en 1954 et 1955, et en 1982.

Mais ce que les médias ne soulignent pas, c’est que les inondations et les crues, même en France et pas seulement dans les pays tropicaux, ont toujours existé.

  • L’Histoire de France révèle que la Seine a eu des crues en 583 (sous le règne de Chilpéric, roi franc mérovingien), qui fut la première crue mentionnée touchant Paris et les communes au bord du fleuve. En 1658 (sous le règne de Louis XIV), ce fut la plus haute crue connue (39 cm de plus qu’en 1910), ce fut une crue grave car le pont Marie fut emporté par le fleuve. En 1740 (sous le règne de Louis XV), une crue de la Seine fut mémorable. En 1876 (au début de la 3e République), toutes les îles de la Seine furent inondées. Bref, avant l’ère industrielle, ces crues existaient déjà et ne sont pas dues au réchauffement climatique.

 

  • En 1910, la hauteur de la crue a atteint son maximum avec 24,30 mètres à Andrésy.
    Depuis l’aménagement de la Seine en amont de Paris, les crues de 1945, 1954 et 1955 furent modérées.

En 2016, il ne faut pas se fier à la hauteur de la crue au niveau de la statue du zouave du pont de l’Alma, car les médias ne souligne pas (encore !) un détail qui a son importance : de 1970 à 1974, le pont de l’Alma (construit en 1856) fut reconstruit du fait de l’étroitesse et du tassement du pont d’origine, ce qui redéfinit le véritable niveau des eaux lors des crues postérieures aux années 1970…

Les crues ont toujours existé. N’oubliez pas les crues du Nil, utilisées par les Égyptiens de l’Antiquité, pour l’agriculture. Voir ici : https://fr.wikipedia.org/wiki/Nil#Le_r.C3.B4le_du_Nil_dans_la_fondation_de_la_civilisation_.C3.A9gyptienne

 

John Philip C. Manson

 

Combien de temps durerait une chute dans un tunnel qui traverse la Terre ?

Je résume brièvement.

Et si l’on creusait un tunnel à travers la Terre et que l’on sautait à l’intérieur ?

Alors combien de temps faudrait-il pour arriver jusqu’à l’autre extrémité ? Depuis près de 50 ans, les scientifiques affirment qu’il faudrait 42 minutes et 12 secondes pour traverser un tunnel creusé à l’intérieur de la Terre mais une étude publiée en 2015 leur a donné tort. Ces recherches ont été menées par Alexander Klotz de l’Université McGill à Montréal et ont permis de conclure qu’il en fallait moins (à cause de la densité non uniforme de la Terre).

 

Je me suis penché sur cette problématique, et je me suis basé sur la densité moyenne uniforme de la Terre, comme pour les calculs d’il y a 50 ans.
Une chute libre suit une accélération dans un tunnel en passant par le centre de la Terre.
J’ai tenu compte de la variation de l’accélération de la pesanteur en fonction de la distance parcourue.
Je pose alors g(z) = 9,81 / ((4 R^3 / (z²(3R – z))) – 1)
et aussi z(t) = (1/2) * g(z) * t²
Avec R = 6371000 m (rayon terrestre moyen), z = distance parcourue dans le tunnel, par rapport au point d’origine situé au niveau de la mer.
Calculer la durée à travers du demi-tunnel est tout simple, avec la condition suivante :  z = R. Donc t = 2R/g.
Temps pour parcourir le tunnel entier :   t =  4 R / g = 2 fois 1298,88 secondes, soit 43 minutes et 18 secondes.
Je trouve donc un résultat très proche de la valeur connue jusqu’en 2015.
Évidemment, comme la Terre a une densité variable selon sa profondeur (la densité n’est pas constante dans la réalité), on appelle cela un gradient de densité, cela change forcément le contenu des calculs.
Tout lycéen de Terminale S (niveau Bac S) sait normalement calculer tout cela.

André Brahic nous a quitté

Cif6KSmW0AErSe5.jpg large

Terrible nouvelle. C’est avec une très profonde tristesse que je viens d’apprendre sur Twitter le décès de l’astrophysicien André Brahic, qui avait lui-même découvert les anneaux de la planète Neptune. Nous perdons un excellent vulgarisateur scientifique.

Avec son talent pour captiver l’attention de son auditoire, avec son éternel sourire, il parlait des étoiles et des planètes avec passion. Il figure parmi ceux qui ont contribué à ma vocation scientifique. Merci, André Brahic.

Décidément, 2016 est une année maudite, nous perdons régulièrement des personnalités que nous aimons.