Statistiques : les oméga-3 préviennent-ils l’apparition des troubles psychiatriques ?

En résumé : une supplémentation en oméga 3 permettrait de prévenir l’apparition de la schizophrénie chez les personnes à risques, selon une étude.

Détails essentiels :

  • L’échantillon se compose de 47 volontaires.
  • Les volontaires ont ensuite été suivis pendant 7 ans. Durant cette période, 40 % des jeunes ayant reçu un placebo ont développé une schizophrénie contre seulement 10 % pour le groupe supplémenté.

Comme trop souvent, un autre détail essentiel est manquant dans ce genre d’études publiées par la presse grand public : l’indice de confiance (généralement de 95%), et les données montrant que le résultat est significatif (avec le paramètre p-value).

Une formule permet de savoir le nombre minimum nécessaire de volontaires pour considérer que l’étude statistique n’est pas biaisée.

 

  • n = t² * p * (1 – p) / m²
  • n = nombre de volontaires (taille minimale de l’échantillon). Ici, valeur à calculer.
  • t = niveau de confiance (souvent 95%, ici paramétré comme coefficient valant 1,96).
  • p = probabilité de réalisation de l’événement (ici 5/47, pour l’échantillon témoin).
  • m = marge d’erreur (ici à 5%, soit 0,05).

 

On trouve alors :  n= 146. On peut conclure qu’un échantillon de 47 personnes volontaires est trop faible, l’étude peut être biaisée. Un résultat jugé significatif peut ne pas l’être si la taille de l’échantillon est trop faible… Il aurait fallu au moins 146 volontaires pour réaliser cette étude.

Les huiles Oméga, c’est à la mode en ce moment, encore un nouveau produit marketing. Ce qu’on entend moins souvent dire, c’est que l’excès de ces omégas est mauvais pour la santé… Voir ici : https://fr.wikipedia.org/wiki/Om%C3%A9ga-3

 

Ce présent article ici va sûrement intéresser Cédric.    😉

 

Paragraphe additionnel :

Tiens, pour enfoncer le clou, on va faire le test du Khi carré : supposons qu’il y avait un groupe de 47 personnes recevant le placebo, et un groupe de 47 personnes recevant les oméga 3.

Donc, selon les données connues : environ 19 personnes sur 47 développèrent un trouble mental suite au placebo, tandis que 5 environ sur 47 développèrent ce même trouble en prenant des omégas 3.

Est-ce significatif pour autant quand on constate une différence ?

C’est ce que le Khi 2 permet de vérifier :

  • X² = ((4.7 – 18,8)²/18,8) + ((42,3 – 28,2)/28,2) = 17,625

Ainsi la valeur du X² vaut 17,625. Avec un degré de liberté égal à 1.

On doit consulter cette table pour trouver la p-value :

khi2

Ne pas tenir compte du surlignage en rouge.

On cherche la valeur 17,625 sur la première ligne, et on voit que ça correspond à une p-value inférieure à 0,001. Ce qui révèle clairement que le résultat de l’étude est très significatif. Rien d’étonnant quand on sait que l’étude est biaisée…

Avec un échantillon statistique de taille trop faible, on peut être amené à des découvertes qui n’en sont pas.

 

En ce moment, Internet est désert… Y a quelqu’un ? L’écho résonne comme dans une pièce vide. Ah mais ouiii, ils sont peut-être tous internés à l’asile psychiatrique… Lol.   

iconlol

John Philip C. Manson

 

 

Publicités

Hadopi et probabilités

En feuilletant un vieux magazine, je découvre cet encadré intéressant :

Screenshot from 2015-07-11 18_46_33

Voila un texte où on peut appliquer des mathématiques.

Quelle est la probabilité pour qu’un pirate parmi les 5 millions reçoivent un email d’avertissement, un jour donné, avec un flux de 10000 emails par jour disséminés parmi les 5 millions de pirates ?

Selon la loi binomiale, il existe un risque sur 501 pour qu’un pirate, un jour quelconque, reçoive un email d’avertissement. Et cela équivaut à un risque que cela se produise, pour un pirate quelconque, à une cadence moyenne de 1 email d’avertissement tous les 8,76 mois, et non pas tous les 16 mois comme l’encadré ci-dessus l’affirme.

En effet, j’ai conçu une simulation informatique qui montre qu’un pirate reçoit, en moyenne, 7,3 emails d’avertissement par décennie.

Quelle est la probabilité pour un pirate de recevoir 3 emails consécutifs avant le délai de 6 mois ?

Ici, on applique la loi de Poisson. En moyenne, on sait que le risque est de 0,365 email par semestre et par pirate ciblé.

On peut calculer la probabilité pour que l’événement se produise 3 fois par semestre.

  • P = µk * e-k / k!
  • nous avons k = 3, et µ = 0,365
  • alors P =0.0056

Ainsi, la probabilité pour qu’un pirate reçoive 3 emails d’avertissement sur 6 mois est de 0,56%.

Autres chiffre intéressants :

  • la probabilité pour qu’un pirate quelconque ne reçoive aucun email d’avertissement en 6 mois est de 69%.
  • la probabilité pour qu’un pirate quelconque reçoive 1 email d’avertissement en 6 mois est de 25,3%.
  • la probabilité pour qu’un pirate quelconque reçoive 2 emails d’avertissement en 6 mois est de 4,6%.
  • et on a dit que la probabilité pour qu’un pirate quelconque reçoive 3 emails d’avertissement en 6 mois est de 0,56%.

 

Donc, en théorie, en un délai d’un semestre :

  • 3 450 000 pirates ne recevront aucun email, et resteront impunis dans ce délai.
  • 1 265 000 pirates recevront 1 email.
  • 230 000 pirates recevront 2 emails.
  • Et 28 000 pirates recevront 3 emails, et seront sanctionnés.

La probabilité qu’un pirate ne reçoive aucun email d’avertissement en 10 années est de 0,68%. Cela veut dire que sur une période longue comme 10 ans, un pirate imprudent finit par se faire choper (99,32% de probabilité). Il existe une probabilité de 14,8% (la plus forte probabilité) de recevoir 7 emails en 10 ans. Et il y aurait 200 à 300 pirates qui auraient l’honneur de recevoir 20 emails en 10 ans. Et concernant les cas très malchanceux, qui reçoivent chacun 3 emails par semestre, et pendant 10 ans, et donc 60 emails en 10 ans, ce qui ferait 20 condamnations par pirate en une décennie, la probabilité est nulle.

 

 

John Philip C. Manson

Les lieux sacrés et les alignements entre eux

Je reviens sur un des paragraphes de mon article https://jpcmanson.wordpress.com/2015/07/08/silence-ca-pousse/ dans lequel était évoqué le Vercors, que certains qualifient de « haut lieu énergétique »… Expression étrange à prendre avec des pincettes, bien sûr. S’il y avait vraiment de hautes énergies, il y aurait longtemps que les prophètes du développement durable les auraient exploitées…

iconlol

Selon le site ci-contre http://reve-la-tion.over-blog.com/article-hauts-lieux-energetiques-118830803.html les lieux « énergétiques » se situeraient à l’intersection de lignes « d’énergie », un peu comme « les méridiens d’acupuncture ». J’ai connaissance que cela s’appelle aussi « lignes ley », et cela me fait penser au « réseau Hartmann ».

Bien évidemment, si je parle de ce sujet, c’est pour en faire une analyse critique, et certainement pas pour en proclamer une quelconque adhésion.

Examinons bien l’image : https://eurogrille.files.wordpress.com/2013/01/avebury-mont-saint-michel.jpg

Les lignes font des intersections et tracent des formes hexagonales.

Trois lieux ont retenu mon attention : Stonehenge, le Mont Saint-Michel et l’île d’Oléron. L’alignement de ces trois lieux est-il parfait ? Non ! Le Mont Saint-Michel est approximativement au sud de Stonehenge, avec une déviation angulaire vers l’est de 18,25 minute d’arc, et l’île d’Oléron est approximativement au sud du Mont Saint-Michel, avec une déviation angulaire vers l’ouest de 12,66 minutes d’arc. De plus, la distance entre Stonehenge et Saint-Michel est carrément différente de la distance entre Saint-Michel et Oléron : 283,64 km pour la première distance, et 302,81 km pour la deuxième. Tandis qu’avec des hexagones réguliers, les segments auraient dû avoir géométriquement la même longueur. Vu la grandeur des distances pour un hexagone, cette aire couvre la surface d’un ou de deux départements français, il est donc naturel de trouver fortuitement des villes importantes (au moins 1 préfecture et des sous-préfectures) à proximité des « noeuds » de convergence des lignes… De là à les considérer comme des lieux sacrés…

Un calcul m’indique que si l’on disperse 34 points aléatoirement sur un plan, alors la probabilité qu’il y ait au moins 3 points alignés (selon une déviation angulaire inférieure ou égale à 0,5°) est supérieure à 50%. Ainsi, sur une carte IGN présentant une trentaine de points étant des lieux historiques, touristiques ou culturels (qui sont aléatoirement placés sur la carte), il y a de fortes chances pour que l’on observe un alignement de 3 points parmi la trentaine de points existants. L’alignement alors observé est dû au hasard, il n’y a pas de déterminisme caché derrière ça.

On a vu avec Stonehenge, Saint-Michel et Oléron que ces lieux sont assez approximativement alignés à défaut d’un alignement parfait. De plus, les distances diffèrent (ce qui ne forme plus vraiment un hexagone régulier).

Concrètement, un hexagone ici a un côté dont la longueur est soit de 141,82 km, soit de 151,405 km. Ainsi, l’aire d’un hexagone ici est entre 52254,9 km² et 59556,9 km² (soit plus de 5 millions d’hectares). Ainsi, en gros, il y a 3500 à 4000 villes dans chaque hexagone, d’après l’image https://eurogrille.files.wordpress.com/2013/01/avebury-mont-saint-michel.jpg Ce qui implique qu’un alignement même approximatif est assez probable… Il ne faut que 90 points aléatoires environ pour avoir au moins un alignement certain à 100% entre 3 points dont la déviation est inférieure ou égale à 0,5°.

Et en réexaminant un de mes articles anciens : https://jpcmanson.wordpress.com/2014/07/11/topometrie-alignement-de-sites-statistiques-et-probabilites/ je dois apporter des éléments nouveaux.

Il est possible de déterminer le nombre d’alignements de 4 points en fonction du nombre de points aléatoires sur un plan. J’ai personnellement trouvé une fonction :  A(N) = 0,0000312543 N3 – 0,000018304 N² – 0,000163868 + 0,000150918.

  •  On a alors 80 alignements de 4 points avec 137 points aléatoires.
  • Et 607 alignements de 4 points avec 269 points aléatoires.
  • On aura a priori un alignement à partir de 31 ou 32 points aléatoires.

 

 

John Philip C. Manson

 

Comment produire une conclusion fallacieuse avec une étude biaisée

Comment produire une conclusion fallacieuse avec une étude biaisée ?

Le présent article va montrer comment on peut se planter quand un échantillon statistique est faible.

On va se baser sur un nombre limité de lancers de dé (non pipés) réalisés indépendamment par des individus.

Si une personne réalise un assez grand nombre de lancers de dés (des milliers ou des millions de lancers), elle donnera la conclusion correcte que le chiffre 6 a une probabilité de 1 sur 6 de se produire lors d’un lancer d’un dé.

Mais supposons que nous limitons à 31 seulement, le nombre de lancers par personne. Que se passe t-il au niveau des conclusions données indépendamment par chacune des personnes ? Les pourcentages suivants peuvent être obtenus expérimentalement (par lancers de dé), ou via la loi binomiale.

  • Un nombre majoritaire de personnes (19% du groupe) affirmera la conclusion qu’il se produit 5 fois le chiffre 6 avec 31 lancers de dé, soit une probabilité de 5 / 31 = 0,1613, ce qui se rapproche sensiblement de la probabilité mathématiquement correcte de 1 / 6 = 0,16666.
  • Mais un pourcentage non négligeable de personnes affirmeront des conclusions divergentes en déclarant une probabilité différente et donc fallacieuse. Voir ci-dessous :
  • 0,35% du groupe de personnes affirmeront que le chiffre 6 n’apparaît pas du tout avec 31 lancers de dé, soit une probabilité nulle !
  • 2% du groupe de personnes affirmeront que le chiffre 6 apparaît 1 fois seulement avec 31 lancers de dé, soit une probabilité de 1 sur 31.
  • 6,5% du groupe de personnes affirmeront que le chiffre 6 apparaît 2 fois avec 31 lancers de dé, soit une probabilité de 2 sur 31.
  • 12,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 3 fois avec 31 lancers de dé, soit une probabilité de 3 sur 31.
  • 17,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 4 fois avec 31 lancers de dé, soit une probabilité de 4 sur 31.
  • On a vu que 19% du groupe de personnes affirmeront que le chiffre 6 apparaît 5 fois avec 31 lancers de dé, soit une probabilité de 5 sur 31, qui équivaut grosso-modo à 1 sur 6. Seul cas où la conclusion est mathématiquement correcte !
  • 17% du groupe de personnes affirmeront que le chiffre 6 apparaît 6 fois avec 31 lancers de dé, soit une probabilité de 6 sur 31.
  • 12% du groupe de personnes affirmeront que le chiffre 6 apparaît 7 fois avec 31 lancers de dé, soit une probabilité de 7 sur 31.
  • 7% du groupe de personnes affirmeront que le chiffre 6 apparaît 8 fois avec 31 lancers de dé, soit une probabilité de 8 sur 31.
  • 4% du groupe de personnes affirmeront que le chiffre 6 apparaît 9 fois avec 31 lancers de dé, soit une probabilité de 9 sur 31.
  • 1,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 10 fois avec 31 lancers de dé, soit une probabilité de 10 sur 31, soit environ 1 chance sur 3, soit le double de la probabilité réelle !

En résumé :

  • 19% des personnes donnent une conclusion pertinente d’après un résultat qui se base sur une probabilité correcte malgré un échantillon trop faible (car 31 lancers de dé c’est insuffisant, il faut des milliers ou des millions de lancers de dé pour établir une conclusion fiable).
  • 38,7% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique inférieure à 1/6, voire même une probabilité nulle…
  • 42,3% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique supérieure à 1/6, voire même au moins le double de la probabilité réelle.

 

Il est donc très clair qu’avec un échantillon biaisé (car un nombre trop faible de lancers de dé), il est fort probable de produire une conclusion fallacieuse.

Il est alors légitime de douter complètement de l’étude qui est critiquée dans cet article ci-joint :  https://jpcmanson.wordpress.com/2015/06/27/limposture-des-biais-statistiques/   C’est à cause d’études bâclées que l’on conclut que les personnes indécises ont des tendances psychotiques et que les gauchers sont des malades mentaux… C’est une honte de publier des choses fallacieuses, et personne ne semble trouver utile et urgent de porter une critique sur ces pratiques intellectuellement malhonnêtes.

 

John Philip C. Manson

 

Le paradoxe de Bertrand

 

Soit un triangle équilatéral de côté 3 inscrit dans un cercle de rayon 1. Ensuite, une droite coupe aléatoirement le cercle en deux points A et B. L’enjeu consiste à déterminer quelle est la probabilité pour que la longueur AB soit supérieur ou égale au côté du triangle inscrit.

J’ai utilisé la méthode du milieu aléatoire (mais sans l’option du petit cercle concentrique, et en ce sens ma méthode choisie est une variante de la 3e méthode et de la première).

J’ai conçu un script Perl qui définit aléatoirement deux points sur le cercle, et on compare la longueur du segment AB par rapport à 3.

  • Avec un long test d’environ 32 millions de segments générés aléatoirement, j’ai établi que la probabilité pour que AB soit supérieur ou égal à 3 est comprise entre 0,0945 et 0,0946, c’est-à-dire dans environ 9,5% des cas.

Mais si je prends l’option du petit cercle concentrique, j’ai pu déterminer par calcul que son rayon vaut 0,5, et que par conséquent, la probabilité pour qu’un segment passe à l’intérieur du cercle concentrique est le rapport des surfaces des disques :  (0,5/1)² = 1/4 = 25%.

Dans l’article de Wikipedia, la première méthode définit un point fixe arbitraire sur le cercle, tandis que le 2e point est choisi au hasard. Ma méthode choisie en est une variante : les deux points sont définis au hasard, et je trouve effectivement une probabilité différente.

 

 

© 2015 John Philip C. Manson

 

Euromillions et probabilités

  • 17/10/2014 : Ce qui est exposé ci-dessous est erroné, voir le commentaire du Dr Goulu à la fin de l’article. Un nouveau résultat est présenté à la fin de l’article, après correction.

 

En examinant les différents rangs des probabilités et des gains au jeu Euromillions :  http://fr.wikipedia.org/wiki/Euro_Millions#Tableau_des_gains

J’ai conçu un programme de simulation informatique des tirages du jeu Euromillions.

Ce jeu a deux tirages par semaine. Ce qui fait 104 tirages par année.

Pour chacun des tirages, on dépense 2 euros pour réaliser une grille de numéros (5 numéros et 2 étoiles). On dispose au départ d’un capital égal à zéro. Après une année de jeu Euromillions, donc après 104 tirages dont les numéros sortent au hasard, j’ai pu évaluer combien devient ce capital, après y avoir ajouté les gains et y avoir déduit les pertes. Si le capital est inférieur à zéro, on aura réalisé plus de dépenses que de gains.

A t-on dépensé plus que l’on aura gagné ? Ou un équilibre entre les gains et les dépenses ? Ou un léger avantage ?

  • Après une année de jeu Euromillions (104 tirages), le capital est positif (en moyenne). En moyenne, on aura un peu plus d’argent qu’avant d’avoir joué aux 104 tirages.
  • Mais l’écart-type vaut au moins le double de la moyenne.

Voici plusieurs résultats statistiques du montant du capital après 104 tirages :

  • 45 ± 94 euros
  • 66 ± 100 euros
  • 66 ± 132 euros
  • 45 ± 143 euros
  • 54 ± 115 euros

Le capital moyen est positif (à notre avantage) mais l’écart-type indique que les intervalles favorisent un capital néanmoins négatif parmi les probabilités…

Concrètement, il y a 68,2% de probabilité pour que le capital soit compris dans les intervalles suivants :

  • entre -49 et 139
  • entre -34 et 166
  • entre -66 et 198
  • entre -98 et 188
  • entre -61 et 169

Si on est gagnant EN MOYENNE, cela n’empêche pas que l’on puisse souvent perdre quand même. Au bout d’un an de jeu, certains sont gagnants, d’autres sont en déficit. En moyenne il existe un léger avantage, apparemment.

Tout ce qui est écrit ci-dessus ne vaut que si le prix du ticket (pour un tirage) vaut 2 euros. Or on vient de m’annoncer, au cours de ma rédaction, que le prix du ticket est de 2,50 euros, ce qui change un peu mes conclusions.

Donc voila ce que l’on obtient si on joue pendant un an à Euromillions, quand le ticket vaut 2,50 euros :

  • 19 ± 129 euros

Ce résultat est une moyenne (avec un écart-type), réalisé sur une simulation informatique étalée sur 20 années consécutives.

  • Gain la première année : 56 (je fais un bénéfice)
  • Gain la 2e année : -102  (je suis en déficit)
  • Gain la 3e année : 134
  • Gain la 4e année : 168;
  • Gain la 5e année : -84
  • Gain la 6e année : -172
  • Et les années suivantes : 88; 96; 26; -74; -108; 144; 249; -190; -9; 106; -52; -116; 8; 218.

Et donc, en moyenne (sur 20 ans), on a un capital (gain sur un an) de 19 euros plus ou moins 129 euros.

Pour résumer, si j’ai 110 euros dans ma tirelire le 1er janvier et que je joue ensuite à Euromillions deux fois par semaine, pendant un an, alors au 31 décembre suivant, ma tirelire contiendra en moyenne 129 euros, avec une probabilité de 68,2% pour que le contenu réel de ma tirelire soit compris entre 0 et 258 euros. Compte-tenu de l’écart-type, dans le meilleur des cas ma tirelire contiendra 258 euros, et dans le pire des cas ma tirelire sera vide. Bien qu’en moyenne on est dans un léger avantage, il existe un risque de dépenser tout l’argent de la tirelire…

Pour entrer dans d’autres détails, la probabilité pour que l’on réalise un bénéfice positif (supérieur à zéro) après un an de jeu Euromillions est d’environ 56%. Il y a concrètement un risque de 44% environ pour qu’on soit perdant (déficitaire) après un an de jeu. Le bénéfice positif espéré consiste à réaliser des gains supérieurs aux dépenses engagées dans le jeu. Comme le ticket par tirage vaut 2,50 euros, les dépenses en une année sont de 2,50 * 104 = 260 euros. Un capital positif après un an de jeu consiste à réaliser des gains supérieurs à ces 260 euros. Mais il y a 44% de risque de ne pas atteindre cet objectif.

 

  • Pour terminer, supposons que je veuille gagner le gros lot d’Euromillions. En réalisant une simulation informatique, il me faudra jouer, par exemple, 44 420 758 de tirages avant de gagner le gros lot (5 numéros + 2 étoiles). Les dépenses engagées seront de 111 051 895 euros, et le gain cumulé sera de 51 931 388 euros. J’aurai dépensé là plus du double de ce que tout ce que j’aurai gagné.
  • Avec un second test, il faudra jouer pendant 89 180 184 de tirages avant de gagner le gros lot : les dépenses seront de 222 950 460 euros, et les gains cumulés sont de 83 136 323 euros (ces derniers étant nettement inférieurs aux dépenses engagées).

Commentaire du Dr Goulu :

goulu

Ma réponse :

En effet j’ai omis de redistribuer les cagnottes aux différents gagnants, ce qui fait des gains plus faibles par joueur gagnant à cause du partage entre les différents gagnants. Par conséquent, la simulation informatique est complètement à revoir… Et encore je trouvais bizarre qu’il y eut un léger avantage plutôt qu’une forte probabilité de perdre la mise de 2,50 euros à chaque tirage comme je devais m’y attendre. Une chose reste certaine : les jeux de hasard sont un attrape-nigaud.

iconlol

Merci beaucoup pour ta réponse.

J’ai modifié mon programme (langage Perl). J’ai maintenant pris en compte le partage moyen des gains entre joueurs gagnants à chaque rang.

Voici ce que j’obtiens :

  • En moyenne, et en partant d’un capital nul, le capital final après 104 tirages (un an de jeu) est de -228,4 ± 11,5 euros. Cette nouvelle conclusion, après la correction appliquée, montre qu’il est très probable de perdre de l’argent après un an de jeu Euromillions.
  • C’est-à-dire que si j’ai un peu plus de 220 euros au départ, il est fort probable de tout perdre après 104 tirages, même si entre temps j’ai reçu quelques petits gains. Mais j’aurai plus perdu que gagné.
  • Un deuxième test statistique indique ce résultat : -222,9 ± 12,8.
  • Le risque de perdre (sur une année de tirages), avec les nouveaux résultats, est de 100% (ou presque), et non plus de 44% comme je l’avais raconté plus haut.

 

 J’ai essayé aussi pour le jeu du Loto :

  • http://fr.wikipedia.org/wiki/Loto#En_France au paragraphe « Depuis 2008 », d’où j’ai relevé les probabilités respectives
  • https://www.fdj.fr/jeux/jeux-de-tirage/loto/resultats d’où j’y ai relevé les gains par grille gagnante.
  • Résultat : en jouant pendant un an au Loto, le capital final (à partir d’un capital nul) est d’environ -127 ± 25 euros. Ce qui signifie qu’à partir d’un budget moyen d’une cent vingtaine d’euros au départ, je perds finalement tout, même en ayant eu entre temps quelques gains divers.

 

 

© 2014 John Philip C. Manson

Des propriétés avec les décimales du nombre pi ?

J’ai vu quelqu’un qui s’étonne du fait que la somme des 20 premiers chiffres du nombre PI (en base décimale)  soit égale à 100. Cet émerveillement peut paraître naïf, mais il soulève cependant un questionnement scientifique intéressant.

Alors, est-ce que la somme des 20 premiers chiffres du nombre PI a une propriété extraordinaire ? Un chiffre rond comme résultat peut paraître être une étonnante propriété.

Le meilleur témoin dans une comparaison statistique, c’est le hasard. Avec l’informatique, le hasard peut être testé grâce aux algorithmes.

J’ai conçu un programme qui fait des sommes avec 20 chiffres aléatoires.

Voici le code source :

#!/usr/bin/perl
# Proba que somme des 20 premiers chiffres en base decimale soit egale a X

$lim = 10000;
for ($x = 0; $x <= 200; $x++)
{
$proba = 0;
for ($essai = 1; $essai <= $lim; $essai++)
{
$somme = 0;
for ($chiffres = 1; $chiffres <= 20; $chiffres++)
{
$somme = $somme + int(rand(10));
}
if ($somme == $x)
{
$proba++;
}
}
print « Probabilité pour que la somme des 20 premiers chiffres (base 10) \nsoit égale à $x : $proba sur $lim.\n »;
}

La probabilité pour que la somme des 20 premiers chiffres aléatoires (en base décimale) soit égale à 100 est d’environ 2,3%. Avec l’exemple du nombre PI, un tel résultat n’est pas vraiment curieux comme propriété mathématique.

Ce qui est même plus probable, c’est que la somme soit égale à une grandeur comprise entre 80 et 92, valeur de somme légèrement plus probable (de 3% à 5%) que celle de la somme égale à 100 (de 2% à 3%).

Supposons ensuite qu’un mathématicien dispose de 3 nombres transcendants obtenus au hasard : la probabilité pour que chacun de ces 3 nombres transcendants ait une somme des 20 décimales égal à 100 est d’environ 1 sur 82190. Probabilité faible, mais non nulle, donc suffisamment grande pour écarter la rareté extrême prétendue de ladite propriété. Le nombre PI ne fait donc pas exception à cette particularité, d’autres nombres (transcendants ou irrationnels) peuvent avoir leurs 20 premiers chiffres dont la somme vaut 100. Parmi 43 ou 44 nombres irrationnels ou transcendants, on en trouve 1 qui ait cette même propriété que le nombre PI.

 

Cependant, comme il est question ici des 20 premiers chiffres d’un nombre irrationnel ou transcendant, la quantité de nombres qui aient la même propriété que le nombre PI est finie.

J’estime qu’il existerait environ 2,3×10¹⁷ nombres ayant ladite propriété (la somme des 20 premiers chiffres qui est égale à 100). Cette valeur est relativement proche de celle du nombre de permutations possibles des 20 chiffres composants ces nombres (20! = 2,4329×10¹⁸).

 

© John Philip C. Manson