Le tribunal administratif rejette des requêtes des frères Bogdanoff contre le CNRS

Voici des nouvelles du feuilleton judiciaire concernant deux célèbres jumeaux télévisés, les nouvelles sont fraîches :

Cosmologie : contradiction dans un modèle cosmologique fractal

  • Hier soir, je découvre cette page : http://www.apmep.fr/spip.php?page=message&id_forum=4592 dans laquelle un modèle cosmologique est décrit avec peu d’informations détaillés (comme des démonstrations et des preuves empiriques), mais j’ai porté une lecture attentive.

L’auteur du texte présente un modèle d’univers à géométrie fractale, et prétend que deux univers apparurent (l’un formé de matière et l’autre d’antimatière). Là je ne peux rien réfuter, parce que c’est simplement invérifiable factuellement.

Ensuite, l’auteur introduit deux grandeurs :

  • D : la dimension fractale de l’« éponge de Menger-Sierpinski ».
  • BT : la borne de « Tsirelson ».

L’auteur affirme que ces deux grandeurs ont une valeur très proches.

Mais ensuite, l’auteur déclare qu’il s’agit de diffuser des informations mais pas des démonstrations. C’est curieux comme remarque. Diffuser des infos comme des faits, ou comme de simples hypothèses ? Une démonstration c’est abstrait, c’est propre aux mathématiques via lesquelles on démontre si des propriétés mathématiques sont vraies ou fausses, mais une démonstration se limite exclusivement aux maths, où l’aspect abstrait se distingue nettement de la physique qui, elle, exige des preuves. En cosmologie comme dans les sciences expérimentales, on ne démontre pas comme on le fait dans les maths pures, mais on prouve directement ou indirectement avec des expériences ou avec des observations.

Ensuite, l’auteur relie les grandeurs D et BT avec la température cosmologique. Là ça commence à devenir concret et intéressant. L’auteur déclare que la grandeur D est constante. Il affirme aussi qu’une troisième grandeur, notée K, est une constante.

Or l’auteur relie ces grandeurs comme suit :

  • Tuo = K * D = K * BT

Avec Tuo = 2,7 kelvins, la température cosmologique. Mathématiquement, lorsqu’on multiplie une constante par une autre constante, le résultat est une constante. Ainsi, la température de l’univers serait constante d’après ce modèle.

Pour ainsi dire, l’auteur déclare péremptoirement qu’il n’y aura pas de mort thermique prévisible pour notre Univers. Par conséquent, l’on comprend qu’il suggère donc que l’univers n’a pas été chaud jadis et qu’il ne se refroidit pas. Une température supposée constante, ça ne ressemble t-il pas à une caractéristique d’un univers stationnaire et donc sans Big Bang ?

L’auteur lâche une phrase étrange : « L’ Univers doit-il se plier à nos modèles ou nos modèles à l’Univers ? « 

Ne voudrait-il pas remettre en question les principes fondamentaux de la scientificité qui fonctionnent plutôt bien depuis Karl Popper ? On n’a de connaissance qu’à travers des expériences et des observations, c’est la base de la méthode scientifique. On construit des modèles mathématiques pour construire une représentation approximative du réel, les modèles devant être le plus fidèles aux faits observés ou expérimentés. Mais un modèle n’est pas censé remplacer les faits… Un modèle est censé représenter le plus fidèlement possible les faits tels qu’ils sont.

Les faits ne mentent pas (quand on limite au maximum les biais cognitifs). Mais des modèles peuvent se tromper. C’est là qu’intervient le critère épistémologique de réfutabilité.

Ainsi, comme on l’a vu, l’auteur déclare que la température cosmologique est constante, donc toujours à 2,7 kelvins, soit environ -270,45°C.

Mais comment est-il possible que l’univers ait toujours une température constante, alors que l’on a observé une preuve comme celle de la nucléosynthèse primordiale ? En effet, le modèle à température constante est incapable d’expliquer l’abondance d’isotopes datant du début de l’univers, isotopes ayant été produits par la fusion nucléaire de noyaux atomiques initialement plus légers.

Il y a 7,2 milliards d’années (donc 6,6 milliards d’années après le Big Bang), la température de l’univers était de 5,1 kelvins, au lieux des 2,7 kelvins actuels. On a la preuve que la température cosmologique n’est pas constante, les faits contredisent le modèle.

Les faits ont prévalence sur les hypothèses. On ne peux guère présenter des hypothèses comme des vérités en dépit de la contradiction due aux faits contre ces hypothèses. Lorsqu’une hypothèse est réfutée par une preuve empirique, l’hypothèse doit être modifiée ou abandonnée.

L’auteur a déclaré en conclusion que « nous pensons que cela pourrait représenter un grand chambardement dans nos croyances ». Je pense plutôt que c’est le modèle ici qui connaît un chambardement, car les faits semblent le réfuter. La théorie du Big Bang n’est pas un ensemble de croyances, le Big Bang est une théorie scientifique qui s’appuie sur plusieurs preuves.

Le modèle de l’auteur, basé sur un univers froid à température constante :

  • n’est pas capable d’expliquer l’abondance universelle de l’hélium, du lithium et du béryllium (qui sont des éléments produits lors de la nucléosynthèse primordiale).
  • n’a peut-être pas pensé que la formation des galaxies se passerait différemment dans un univers à température constante, par rapport à la formation de galaxies dans un univers jadis très chaud et dont la température décroît.
  • le modèle explique t-il le red-shift (le décalage vers le rouge, dû à l’effet Doppler) ?
  • En décembre 2000, Raghunathan Srianand, Patrick Petitjean et Cédric Ledoux ont mesuré la température du fond diffus cosmologique baignant un nuage interstellaire dont ils ont observé l’absorption du rayonnement émis par le quasar d’arrière plan PKS 1232+0815, situé à un décalage vers le rouge de 2,57. L’étude du spectre d’absorption permet de déduire la composition chimique du nuage, mais aussi sa température si l’on peut détecter les raies correspondant à des transitions entre différents niveaux excités de divers atomes ou ions présents dans le nuage (dans le cas présent, du carbone neutre). La principale difficulté dans une telle analyse est d’arriver à séparer les différents processus physiques pouvant peupler les niveaux excités des atomes. Les propriétés chimiques de ce nuage, ajoutées à la très haute résolution spectrale de l’instrument utilisé (le spectrographe UVES du Very Large Telescope) ont pour la première fois permis d’isoler la température du rayonnement de fond. Srianand, Petitjean et Ledoux ont trouvé une température du fond diffus cosmologique comprise entre 6 et 14 kelvins, en accord avec la prédiction du Big Bang, de 9,1 K. La température mesurée, affectée d’une marge d’incertitude de 8 degrés (de 6 à 14 K), est explicitement supérieure aux 2,7 kelvins actuels (les 2,7 K sont en-dessous de la valeur minimale de la marge thermique observée). L’univers était plus chaud autrefois par rapport à maintenant. Sa température n’est pas constante.

 

  • « On reconnaît la qualité d’une expérience scientifique au nombre de théories qu’elle fait tomber ». 
  • « Une théorie est scientifique si et seulement si elle est susceptible d’être réfutée ; elle n’est pas vraie, mais tout au plus admise provisoirement. » (Karl Popper)

feynman3

 

J’ai trouvé des remarques dans un blog du Nouvel Observateur : http://olivier-4.blogs.nouvelobs.com/archive/2012/01/14/le-pouvoir-de-l-imaginaire-149-un-nouveau-type-de-big-bang-m.html   dont voici l’encadré ci-dessous :

NObs

 

Dans un forum, on trouve d’autres données indiquées par l’auteur : http://astro-forum.forumactif.com/t1162-le-big-bang-serait-il-faux

En substance, je cite :

  • « Notez bien que ces 2 Univers ne vivent pas l’un à coté de l’autre mais seraient très éloignés et tourneraient autour de leur barycentre commun situé à une distance de 10 puissance 67 mètres. »
  • « une expansion qui aurait durée 18 milliards d’années mais une expansion qui se serait faite par sauts quantifiés »
  • « Après ces 18 milliards d’années d’expansion l’Univers ARRÊTE son expansion. Sa température est celle qu’il a aujourd’hui car il ne se dilate plus. »

L’auteur affirme 10 puissance 67 mètres tandis que l’on sait que l’univers observable a une grandeur de l’ordre de 10 puissance 26 mètres. Auquel cas son hypothèse de deux univers est invérifiable…

L’auteur stipule une expansion quantique (par sauts), tandis que la physique quantique ne s’applique qu’à des échelles subatomiques, et ne s’applique pas aux grandes distances à l’échelle macroscopique où c’est la théorie de la relativité qui est concernée…

L’auteur déclare une expansion actuellement nulle, alors que les faits prouvent que l’expansion est accélérée, cela fut découvert en 1998 et confirmé en 2003, et cela a valu aux découvreurs le prix Nobel de physique 2011.

Et en voici les références :

Bilan :

L’auteur présente un modèle théorique au cours des années 2010 à travers des blogs et des forums. Mais l’on sait depuis janvier 2013, date à laquelle l’info est médiatisée, que l’univers avait une température de 5,1 K il y a 7,2 milliards d’années ; et l’on sait depuis 1998 (et confirmé en 2003) que l’univers est en expansion accélérée.

Ces deux contre-exemples réfutent le modèle théorique de l’auteur. L’univers n’est pas stationnaire, ni à température constante, c’est un fait.

 

  • Pour terminer ce présent article, je me permets de glisser une remarque. L’auteur dont le modèle est contesté a inversé ce que l’on attend de la méthode scientifique basée sur l’épistémologie de Karl Popper : il a cherché à trouver des confirmations empiriques ou observationnelles de sa théorie, au lieu de chercher à contredire sa théorie en trouvant des contre-exemples pouvant l’invalider. La science fonctionne par réfutation, pas par confirmation.

John Philip C. Manson

 

Polémique autour de l’épreuve de physique-chimie du BAC 2015

L’an dernier, en juin 2014, j’avais consacré un article sur la polémique autour de l’épreuve de maths du Bac S 2015, jugé trop difficile par les candidats : https://jpcmanson.wordpress.com/2014/06/20/la-session-2014-de-lepreuve-de-maths-du-bac-un-carnage/

Mais cette année, à l’issue du Bac 2015, une nouvelle polémique éclate :

BAC 2015: l’épreuve de physique-chimie jugée « trop difficile », le barème revu.

Va t-on encore surévaluer les notes des mauvaises copies afin que les recalés obtiennent quand même la moyenne ?

Pfffff… L’Education Nationale n’a pas peur du ridicule… Tant de réformes afin que, finalement, des centaines de milliers d’étudiants fraîchement diplômés bacheliers se plantent complètement à leur première année d’université… Pourquoi une telle stratégie (s’il y en a une) ? Pourquoi s’acharner à survaloriser les candidats et ainsi à donner l’illusion d’une quasi-totalité de candidats ayant réussi ? Je ne comprends pas.

 

Vérification du sujet de l’épreuve de physique-chimie du Bac S 2015 de la métropole française : http://labolycee.org/2015/2015-Metropole-Exo1-Sujet-SautFelix-6-5pts.pdf

  • Exercice 1, partie 1 : des questions classiques en statique des fluides.
  • Exercice 1, partie 2 : le saut de Félix Baumgartner, là aussi ce n’est pas insurmontable. Il suffit de savoir lire des graphiques. Une question demande si l’homme a atteint une vitesse supersonique, la vitesse de l’homme en chute libre est lisible sur le graphique, et pour connaître la vitesse du son, elle dépend de la masse volumique atmosphérique, et donc de l’altitude, et les données utiles sont présentes dans l’énoncé. Ensuite on aperçoit une question ayant un rapport avec l’énergie potentielle et l’énergie cinétique dont la somme correspond à l’énergie mécanique. On peut déterminer l’altitude à laquelle Baumgartner a ouvert son parachute : on connaît la durée de la chute, on connaît les paramètres pour la poussée d’Archimède, donc le calcul est possible.
  • A la fin de la partie 2 de l’exercice 1, il est demandé l’équivalent de combien d’étages aurait sauté le parachutiste. La hauteur étalon d’un étage n’est pas mentionnée dans cette fin d’exercice, mais cela ne doit pas inciter les candidats à s’abstenir d’argumenter. La hauteur des étages la plus standard correspond au type de fonction du bâtiment, tour ou édifice :
    • 2,66 mètres, soit 16 marches pour un immeuble d’habitation récent, hôtel ou parking
    • 3 mètres, soit 18 marches pour un immeuble d’habitation ancien
    • 3,30 mètres, soit 20 marches pour un immeuble de bureaux ou hôpital (espace réservé aux câbles et à la climatisation)

Comme valeur de hauteur d’un étage, je me serais personnellement basé sur la hauteur d’un plafond, dont chacun sait que le plafond est à 2 mètres 50 du sol. J’aurais fait un raisonnement là-dessus. Ensuite, le calcul ne demande qu’une simple division à faire. Le corrigé affirme que Félix aurait pu atteindre la vitesse indiquée en sautant d’une hauteur de 4 mètres, soit approximativement du deuxième étage. En effet, j’ai eu raison de choisir 2,5 m comme étalon, j’aurais même pu choisir 2,66 m voire même 3 m ou 3,3 m (valeurs proches, mais que je ne connaissais pas), mais la réponse aurait été néanmoins correcte : 4 mètres, c’est compris entre 2,5 ou 2,66 m (sol du 2e étage) et 5 ou 5,32 m (plafond du 2e étage, ou sol du 3e étage), et 4 mètres ça colle bien au deuxième étage comme réponse car c’est entre les deux bornes, c’est la bonne réponse.

Il faut quand même être un peu neuneu pour ne pas connaître personnellement la hauteur, même approximative, entre le sol et le plafond, sinon on finirait par croire que ces jeunes sont nés hier ou même ce matin… « Papa, maman, comment on fait les bébés, comment je suis né ? Dans un chou ou sont-ce les cigognes qui m’ont amené ? »… (ironie)

La cinématique et la dynamique de Newton, ça fait bien partie du programme de physique de Terminale S.

En plus, dans le début de l’énoncé de l’exercice 1, on peut lire ceci : « la vitesse d’un mobile dans un fluide est dite supersonique si elle est supérieure à la célérité du son dans ce fluide. »   Le candidat est censé savoir cela avant l’épreuve. Pendant qu’on y est, on livre carrément toutes les réponses aux candidats, pour faciliter les choses…

 

Ensuite, il y a l’exercice 2, qui porte sur la chimie :  http://labolycee.org/2015/2015-Metropole-Exo2-Sujet-Soda-8-5pts.pdf

  • L’exercice 2 commence par demander la formule brute de la caféine (facile car l’énoncé montre la molécule sous sa forme développée). Suivi ensuite par un calcul de concentration molaire (facile aussi).
  • Ensuite : peut-on remplacer la solution aqueuse d’hydroxyde de sodium par des pastilles d’hydroxyde de sodium solide pour réaliser la synthèse ? Non ! C’est pourtant évident : l’hydroxyde utilisé est à l’état ionique, et l’ionisation implique la nécessité d’une solution aqueuse. De plus, la molécule d’eau est nécessaire dans la réaction chimique. Trop simple comme question… Puis ça demande ensuite pourquoi le chauffage à reflux est justifié : il faut contrer la volatilité des réactifs pour ne pas en perdre, et la chaleur accélère la réaction chimique. Tout simple là aussi. Et dans l’étuve il faut éviter le point de vaporisation du produit à sécher, tout comme il faut éviter l’auto-inflammation du produit (qui est une molécule organique), et plus vraisemblablement le point d’éclair (où les vapeurs du produits peuvent s’auto-enflammer en présence d’air). Ainsi, dans l’étuve, la température doit impérativement rester inférieure à 121°C.

Citer deux méthodes permettant de vérifier la nature du produit obtenu (acide benzoïque). Je propose premièrement l’inflammation du produit avec le dioxygène, on récupère et on pèse les gaz obtenus, la proportion des gaz (CO2 et H2O) peut conduire à calculer la formule développée du produit. Deuxièmement, on fond le produit à 122.35°C avec prudence, et on le place dans un réfractomètre adapté aux produits chauds : l’indice de réfraction révèle la nature du produit. Autre méthode, moins risquée que la précédente : on mélange les cristaux avec de la glace pilée, et on utilise la cryoscopie comme moyen de déterminer la masse molaire du produit. Quiconque a étudié la chimie au lycée connaît ces méthodes. Autres méthodes plus simples : vérification de la température de fusion du produit sur un banc Kofler, et la chromatographie.

 

Bilan : l’exercice de physique et l’exercice de chimie ne comportent pas de difficulté particulière. Mais où est donc le problème ? Je n’en vois aucun. J’ai été candidat au Bac dans la filière STL (Sciences et Technologie de Labo), et je vous assure que ce que j’ai eu comme épreuves à mon Bac était bien plus difficile. Je sens la différence. A mon époque, seulement 2 candidats sur 3 obtenait le Bac, pas comme maintenant où l’on dépasse artificiellement les 90% de « réussite », et où près de la moitié des candidats obtient une mention.

 

L’épreuve de physique-chimie de 2015, trop difficile ? Arrêtez de chialer et de dire des conneries…

Les profs de fac n’ont pas fini d’être désabusés devant des milliers d’étudiants contents d’eux mais complètement illusionnés… A croire que la hantise de chaque proviseur de lycée est d’avoir son propre lycée en queue de classement.

Regardez ces documents PDF, voyez à quoi ressemblaient les sujets de maths au Bac S de 1993 : http://www.apmep.fr/Annee-1993-15-sujets   On remarque une nette différence, c’est plus dur.

Si l’on donnait les sujets de maths de 1993 aux candidats du Bac actuel, il n’y aurait pas de pétition de protestation, mais plutôt une révolution…

iconlol

 

  • N’oublions pas qu’autrefois, les correcteurs retiraient un point pour chaque faute d’orthographe ou de grammaire constatée… De nos jours, les zéros pointés pulluleraient si cette technique était encore appliquée… Mais maintenant, le laxisme règne en maître. Des fautes horribles sur les feuilles, des fautes que chacun faisaient mais quand ils étaient au CE1 mais là ils seront bientôt à la fac… Les fautes ça pique les yeux… La moutarde aurait moins fait d’effet. J’ai une cousine qui est ingénieur, le 20 juin dernier elle m’a envoyé une carte avec un texte qu’elle a écrit, belle écriture mais, sans la juger, elle a une écriture avec des fautes d’orthographe atroces, bref elle est ingénieur mais elle écrit avec médiocrité, mais comment une telle anomalie peut-elle être possible, franchement ? Ce ne serait qu’une faute dans un texte d’une page, c’est tolérable, mais des fautes à toutes les phrases c’est abusé… Moralement, écrire avec des fautes, c’est à la fois manquer d’amour-propre et manquer de respect envers les lecteurs à qui les textes sont destinés.

 

Et pour clore ce présent article, voici un texte intéressant de Jean-Paul Brighelli :  http://www.lepoint.fr/invites-du-point/jean-paul-brighelli/bac-2015-brighelli-enseignants-notez-les-copies-ce-qu-elles-valent-vraiment-17-06-2015-1937096_1886.php    Il a raison, il faut s’insurger contre les notes surévaluées, il faut que cette comédie cesse !

J’en suis témoin, le niveau réel au bac ne monte pas, les élèves candidats se montrent parfois incapables de résoudre des exercices qu’ils devraient pourtant savoir faire, et à plus forte raison qu’ils ont choisi le bac scientifique. Notez les copies ce qu’elles valent réellement Seule la politique de l’effort, en versant de la sueur et des larmes, paie vraiment. La (vraie) réussite vient de l’effort. Sans efforts, nous serions pareils à des poissons morts qui flottent et qui sont emportés par le torrent. L’effort, c’est une nécessité qui prouve notre valeur, qui montre qu’on est vivant. Mais les pédagogues ont créé des générations de moutons… Et ça, ce n’est pas du tout rendre service à la jeunesse.

Notez bien que sans efforts, les maths n’existeraient même pas. La logique, la réflexion, la recherche, ça demande des effort et de la persévérance, et sans ça, les maths ne pourraient pas exister. Je me demande si les concernés en ont conscience…

Ecole de la République, tu es tombée bien bas…

La preuve :

  • Selon les derniers chiffres officiels, 40% des jeunes entrant en Sixième au collège n’ont pas acquis, en 5 années d’école primaire, une maîtrise suffisante de la lecture et de l’expression orale et écrite en français afin de pouvoir lire en comprenant ce qu’ils lisent et rédiger en français à peu près correct afin d’être eux-mêmes compris par ceux qui les lisent. Oui, 40%, dont en détail :
    – 15% d’élèves ne sachant pas lire du tout,
    – et 25% qui déchiffrent laborieusement, mais trop mal pour pouvoir comprendre ce qu’ils lisent…
  • Ainsi, comment ces élèves peuvent-ils ensuite suivre normalement le reste de leur scolarité ?

Mais pourquoi fait-on cela à la jeunesse ? Pourquoi en est-on arrivé là ?

Dire que le niveau actuel relève de l’illettrisme est malheureusement vrai. La maîtrise du langage conditionne la capacité de penser. Saborder l’enseignement, c’est sacrifier la pensée de ceux qui nous succéderons, c’est leur nuire. C’est même inciter les gens à préférer la facilité le plus tôt possible, et ça n’est pas leur rendre service. A croire que tout cela a été voulu. Il n’y a pas de logique à ça. Je ne comprends pas.

Quand on voit comment le Bac est bradé actuellement, c’est honteux, il n’y a pas d’autre mot… C’est une honte. Une catastrophe.

A vaincre sans effort, on triomphe sans mérite.

John Philip C. Manson

7% de la biodiversité aurait disparu en 3 siècles

Je cite : « Sixième Extinction : 7% des espèces probablement déjà disparues. Ce ne serait pas 1,3% mais 7% de la biodiversité terrestre qui aurait disparu, soit environ 130 000 des espèces déjà connues. »

Si 7% représente 130 000 espèces, alors 100% c’est équivalent à 130000/0,07 = environ 1 857 143 espèces, soit à peine 2 millions d’espèces connues.

Cependant, selon le journal Le Monde (http://www.lemonde.fr/planete/article/2011/08/23/pres-de-8-7-millions-d-especes-vivantes-peuplent-la-terre_1562713_3244.html) : « Notre planète compte environ 8,7 millions d’espèces vivantes, dont 6,5 millions évoluent sur la terre ferme et 2,2 millions en milieu aquatique, selon l’estimation la plus précise jamais effectuée et publiée mardi 23 août aux Etats-Unis. Seules 1,23 million (ou 14,1 % du total) d’entre elles ont été jusqu’à présent découvertes, décrites et cataloguées, précisent les chercheurs du Census of Marine Life (« recensement de la vie marine »), auteurs de ces travaux parus dans la revue scientifique américaine PLoS Biology. »

Le pourcentage d’espèces connues ayant disparu en 3 siècles est approximatif, car le nombre total d’espèces connues n’est pas précis. Selon Le Monde, c’est 1,23 million d’espèces répertoriées, tandis que la division de 130000 espèces disparues par le coefficient 0,07 donne plutôt le nombre de 1,86 million d’espèces estimées…

Bref, il y aurait plus de 7 fois le nombre d’espèces connues pour se représenter le nombre total d’espèces sur Terre. On est bien loin d’avoir tout recensé. Et puis, si 130 000 espèces connues disparaissent en 3 siècles, alors c’est presque 1 million d’espèces (connues et inconnues) qui s’éteignent en 3 siècles…

 

Supposons que le taux de 7% d’espèces éteintes soit constant. Et que tous les 3 siècles, 7% des espèces restantes s’éteignent à leur tour.

Le nombre E d’espèces connues en 2015, et encore existantes à l’années 2015 + T, ça correspond à cette équation de décroissance exponentielle :

  • E(T) = e^(-0,0241902 T).

Tous les 3 siècles, ça perd 7% des espèces connues : au temps T=0, on a E = 1 (c’est-à-dire 100%), puis E = 0,93 lorsque T = 3 siècles, puis E = 0,8649 quand T = 6 siècles.

Donc si le taux de perte est constant à 7% tous les 3 siècles, ça signifie que 99% des espèces connues en 2015 auront disparu dans 190,373 siècles (dans 19037 ans environ). Et à l’échelle géologique, 19 mille ans, c’est court…

Il est utile de préciser que l’extinction actuelle des espèces a commencé bien avant le réchauffement climatique. L’extinction des espèces est due à l’Homme : la chasse, le braconnage (éléphants, singes, phoques, cétacés…), les insecticides qui tuent de nombreuses espèces d’insectes dont les précieux pollinisateurs, les massacres à grande échelle sur tous les continents.

Derrière la barbarie des braconnages, il y a souvent des croyances stupides et inutiles que l’on devrait combattre : par exemple, certains abrutis croient que la corne de rhinocéros réduite en poudre aurait des vertus aphrodisiaques, ce qui est faux. De même, en Asie du Sud-Est par exemple, où selon des croyances ancestrales, la poudre d’ivoire aurait des vertus médicinales et aphrodisiaques, ce qui est faux… Ces croyances motivent les braconnages. Les croyances racontent et font croire des conneries. Si on met fin à ces croyances, on pourrait sauver les rhinocéros et les éléphants… La connerie humaine, quelle merde…

Les espèces vivantes sur Terre ne représentent approximativement que 1% de toutes les espèces que la planète a connu. En effet, les scientifiques estiment que 99% des espèces ayant vécu sur Terre se sont éteintes, et aucune d’entre elles n’a vécu plus de 100 millions d’années. Voir ici : http://secouchermoinsbete.fr/4876-nombreuses-sont-les-especes-disparues

Dans 19000 ans environ (ou moins si la tendance s’aggrave), ce sera 99% des espèces connues actuelles qui auront disparu !

Une extinction de masse, comme certains le suggèrent ? Je dis que c’est possible. C’est malheureusement crédible…

John Philip C. Manson

 

L’évolution du nombre de followers d’un compte Twitter

  • J’ai lu cet article écrit par le journaliste Seth Stevenson :  http://www.slate.fr/story/63099/twitter-achat-followers
  • Le journaliste relate son expérience lors de son achat de faux followers afin de doper le nombre de ses abonnés sur Twitter.

Voila un sujet intéressant. Peu importe la fraude ou non, car là je vais m’intéresser à l’évolution du nombre de (vrais) followers sur un compte Twitter en fonction du temps.

Je cite cette information dite par le journaliste :  « Il semble aussi que les faux abonnés puissent permettre d’en obtenir d’autres, plus réels. J’ai en effet remarqué qu’après avoir acheté mes followers zombies, mon audience s’est accrue de plus en plus rapidement. »

Ainsi, c’est intéressant, car cela suggère que l’accroissement du nombre de followers sur Twitter obéirait à une équation différentielle où la dérivée dF/dt (le nombre de followers nouveaux par jour) est proportionnelle à la fonction F(t) (le nombre total de followers à l’instant t).

Pour vérifier cela attentivement, j’ai fait une expérience sur le compte Twitter le plus populaire du web : Katy Perry, la chanteuse. Elle a actuellement plus de 71 millions de followers, et j’ai pu retracer différentes dates de son compte  (de 2008 à 2015) grâce aux données de web.archive.org.

  • Le 11 mai 2008, le jour zéro, Katy crée son compte Twitter (elle semble avoir recréé son compte le 21/02/2009).
  • Le 01/01/2009, 235e jour : elle a 812 abonnés.
  • Le 24/12/2009, 592e jour : 1 532 676 abonnés.
  • Le 15/03/2010, 673e jour : 1 999 894 abonnés.
  • Le 30/10/2010, 963e jour : 5 081 489 abonnés.
  • Le 7/12/2011, 1305e jour : 12 696 141 abonnés.
  • Le 8/12/2012, 1672e jour : 29 783 805 abonnés.
  • Le 25/12/2013, 2054e jour : 48 808 919 abonnés.
  • Le 4/06/2014, 2215e jour : 53 452 903 abonnés.
  • Le 28/06/2015, 2604e jour : 71 685 029 abonnés.

 

L’examen graphique de la courbe obtenue (le nombre de followers en fonction du jour t) montre que le nombre de followers croît exponentiellement entre t=0 et une limite approximative de 3 ans et demi après la création du compte Twitter. Après 3 ans et demi, le nombre de followers augmente linéairement.

La fonction peut être décrite comme étant un polynôme du 4e degré :   F(t) = 0,00000482661 x^4 + 0,0220765 x^3 – 16,0718 x² + 4730,93 x + 90770,6 mais on s’aperçoit vite qu’il ne vaut que dans l’intervalle [0 ; 2604].

En revanche, la fonction linéaire, valide à partir d’environ t = 1305 jours, est :   F(t) = 45322,7 t – 46000000. On voit là que le taux moyen de croissance linéaire est de 45323 followers nouveaux par jour.

En résumé, quand un compte Twitter est créé, c’est le buzz, plus il y a de followers, plus ça attire d’autres followers potentiels, jusqu’à une limite. Ensuite, ça devient une croissance linéaire (parce que l’on ne peut pas avoir une croissance jusqu’à l’infini et l’on ne peut pas dépasser le nombre d’habitants sur Terre, et avec le temps il reste de moins en moins de gens qui ne sont pas encore abonnés à Katy Perry, ce qui se traduit par un ralentissement des nouveaux abonnements). Ou alors il peut arriver qu’il y ait peu à peu de plus en plus de unfollows, d’où un ralentissement qui tend à une croissance linéaire.

 

Reste à vérifier si les autres comptes Twitter populaires ont la même tendance : croissance exponentielle, puis croissance linéaire. C’est intéressant.

John Philip C. Manson

 

Comment produire une conclusion fallacieuse avec une étude biaisée

Comment produire une conclusion fallacieuse avec une étude biaisée ?

Le présent article va montrer comment on peut se planter quand un échantillon statistique est faible.

On va se baser sur un nombre limité de lancers de dé (non pipés) réalisés indépendamment par des individus.

Si une personne réalise un assez grand nombre de lancers de dés (des milliers ou des millions de lancers), elle donnera la conclusion correcte que le chiffre 6 a une probabilité de 1 sur 6 de se produire lors d’un lancer d’un dé.

Mais supposons que nous limitons à 31 seulement, le nombre de lancers par personne. Que se passe t-il au niveau des conclusions données indépendamment par chacune des personnes ? Les pourcentages suivants peuvent être obtenus expérimentalement (par lancers de dé), ou via la loi binomiale.

  • Un nombre majoritaire de personnes (19% du groupe) affirmera la conclusion qu’il se produit 5 fois le chiffre 6 avec 31 lancers de dé, soit une probabilité de 5 / 31 = 0,1613, ce qui se rapproche sensiblement de la probabilité mathématiquement correcte de 1 / 6 = 0,16666.
  • Mais un pourcentage non négligeable de personnes affirmeront des conclusions divergentes en déclarant une probabilité différente et donc fallacieuse. Voir ci-dessous :
  • 0,35% du groupe de personnes affirmeront que le chiffre 6 n’apparaît pas du tout avec 31 lancers de dé, soit une probabilité nulle !
  • 2% du groupe de personnes affirmeront que le chiffre 6 apparaît 1 fois seulement avec 31 lancers de dé, soit une probabilité de 1 sur 31.
  • 6,5% du groupe de personnes affirmeront que le chiffre 6 apparaît 2 fois avec 31 lancers de dé, soit une probabilité de 2 sur 31.
  • 12,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 3 fois avec 31 lancers de dé, soit une probabilité de 3 sur 31.
  • 17,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 4 fois avec 31 lancers de dé, soit une probabilité de 4 sur 31.
  • On a vu que 19% du groupe de personnes affirmeront que le chiffre 6 apparaît 5 fois avec 31 lancers de dé, soit une probabilité de 5 sur 31, qui équivaut grosso-modo à 1 sur 6. Seul cas où la conclusion est mathématiquement correcte !
  • 17% du groupe de personnes affirmeront que le chiffre 6 apparaît 6 fois avec 31 lancers de dé, soit une probabilité de 6 sur 31.
  • 12% du groupe de personnes affirmeront que le chiffre 6 apparaît 7 fois avec 31 lancers de dé, soit une probabilité de 7 sur 31.
  • 7% du groupe de personnes affirmeront que le chiffre 6 apparaît 8 fois avec 31 lancers de dé, soit une probabilité de 8 sur 31.
  • 4% du groupe de personnes affirmeront que le chiffre 6 apparaît 9 fois avec 31 lancers de dé, soit une probabilité de 9 sur 31.
  • 1,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 10 fois avec 31 lancers de dé, soit une probabilité de 10 sur 31, soit environ 1 chance sur 3, soit le double de la probabilité réelle !

En résumé :

  • 19% des personnes donnent une conclusion pertinente d’après un résultat qui se base sur une probabilité correcte malgré un échantillon trop faible (car 31 lancers de dé c’est insuffisant, il faut des milliers ou des millions de lancers de dé pour établir une conclusion fiable).
  • 38,7% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique inférieure à 1/6, voire même une probabilité nulle…
  • 42,3% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique supérieure à 1/6, voire même au moins le double de la probabilité réelle.

 

Il est donc très clair qu’avec un échantillon biaisé (car un nombre trop faible de lancers de dé), il est fort probable de produire une conclusion fallacieuse.

Il est alors légitime de douter complètement de l’étude qui est critiquée dans cet article ci-joint :  https://jpcmanson.wordpress.com/2015/06/27/limposture-des-biais-statistiques/   C’est à cause d’études bâclées que l’on conclut que les personnes indécises ont des tendances psychotiques et que les gauchers sont des malades mentaux… C’est une honte de publier des choses fallacieuses, et personne ne semble trouver utile et urgent de porter une critique sur ces pratiques intellectuellement malhonnêtes.

 

John Philip C. Manson

 

L’imposture des biais statistiques

Lisez bien cette soi-disant étude française qui conclut illico que l’impossibilité de réagir face à l’incertitude est peut-être le signe des premiers stades de la psychose…

Deux détails m’ont choqué, vous voyez lesquels ?

  • Je cite : « Dans le cadre de l’étude, 31 participants en bonne santé ont été recrutées. Âgés de 25 à 37 ans, ils étaient droitiers, les gauchers étant plus à risque de psychose. »

Quoi !? Seulement 31 participants. C’est insuffisant comme échantillon pour réaliser une analyse statistique sérieuse ! Pendant qu’on y est, un seul participant, voire même aucun, pour livrer des conclusions fallacieuses… Les étais de l’étude sont donc fragiles.

Ensuite, il n’existe pas de preuves solides que les gauchers soient plus à risque concernant les maladies mentales. On sait par exemple que les gauchers sont plus rapides au tennis et à l’escrime. Mais la gaucherie comme cause de pathologies mentales, je n’ai pas connaissance d’études sérieuses anciennes ou récentes à ce sujet.

Ceux qui ont réalisé l’étude ne se sont pas basés sur une répartition naturelle des psychoses, mais se sont basés sur une simulation d’altérations mentales par l’administration par intraveineuse de kétamine, un psychotrope. Il y a une différence entre les psychoses naturelles et les états délibérément provoqués par la chimie.

Est-ce qu’il s’agit d’une étude statistique sérieuse et fiable, ou d’une étude bâclée et biaisée ? A t-on pris en compte la p-value de 5% ou 1% afin de déterminer si un résultat est significatif ou non ?

L’étude sur les gauchers est publiée sur le site PourquoiDocteur.fr en octobre 2013. Une recherche sur Google ne donne que 22 résultats seulement (sites francophones) : https://www.google.fr/?gws_rd=ssl#q=%22Jadon+R.+Webb%22+gauchers&filter=0  Ne serait-ce qu’une rumeur infondée ? Généralement, de vraies études conduisent à une forte médiatisation, mais là ce n’est pas le cas.

Le web anglophone livre 247 résultats sur Google : https://www.google.fr/?gws_rd=ssl#q=%22Jadon+R.+Webb%22+left-handedness

Depuis des semaines, j’ai mis comme paramètre de notification de Google Alerts les mots-clés suivants : « Selon une étude » et « D’après une étude », afin d’être informé quasiment en temps réel des études publiées sur le web chaque jour. La quasi-totalité des résultats livrés par Google Alerts est dénuée du moindre intérêt (le plus souvent : bienfait/cancérogénicité des fruits/légumes à partir d’a prioris ou de formules marketing…).

Le web est vite devenu la vitrine d’études bidons marquées par un haut degré d’amateurisme.

Je viens à me demander qui est l’origine des études statistiques : les chercheurs ou les journalistes eux-mêmes ?…

 

John Philip C. Manson