Méthode de Monte Carlo et évaluation probabiliste du nombre pi

Aujourd’hui, je vais parler de la méthode de Monte Carlo. C’est une technique probabiliste qui utilise des procédés aléatoires.

Le moyen classique de déterminer le nombre pi est de prendre une ficelle avec laquelle on entoure la circonférence d’un cylindre ou d’une sphère dont la valeur est divisée par le diamètre.

Le hasard peut cependant donner une approche du nombre pi. Par exemple, je définis un repère orthonormé où le point origine 0 sera le centre d’un cercle de rayon R, et le rayon vaudra 1. Le cercle est lui-même inscrit dans un carré ayant un côté valant 2R.

Par conséquent, l’aire du disque vaut pi×R² et l’aire du carré vaut 4R².

sqcirc

Supposons ensuite qu’un point apparaisse au hasard tel que ses coordonnées x et y appartiennent à l’intervalle [-1;1], c’est-à-dire que le point reste rigoureusement dans les limites du carré. Le point généré aléatoirement apparaît soit dans le disque, soit dans la zone carrée extérieure au disque lui-même.

La probabilité pour que le point soit dans le cercle est de (4 – pi) / pi = 0,2732395, et la probabilité pour que le point soit extérieur au cercle est de 1 – (4 – pi)/pi = 0,72676.

Avec ces informations, il est possible de déterminer pi à partir des scores obtenus par la génération de points aléatoires.

Algorithme :

  • On génère aléatoirement des coordonnées x et y pour définir un point.
  • On calcule la distance entre ce point aléatoire et le point origine (0;0).
  • La distance OP = racine carrée de ((x – 0)² + (y – 0)²) = racine carrée de (x² + y²).
  • Si la distance est inférieure à R, alors le point appartient au disque.
  • Mais si la distance est supérieure à R, alors le point est extérieur au disque.
  • On comptabilise le nombre de points appartenant au disque et ceux extérieurs au disque.
  • À partir de ces nombres de points aléatoires, on détermine la valeur probabiliste de pi.

 

Voici le code source d’un script Perl que j’ai conçu :

#!/usr/bin/perl
$str = «  »;
for ($try = 1; $try <= 20; $try++)
{
$cercle = 0; $carre = 0;
 for ($n = 1; $n <= 1000000; $n++)
{
$x = rand(1) * (-1) ** int(1 + rand(2));
$y = rand(1) * (-1) ** int(1 + rand(2));
# Calcul de la distance entre le point généré avec x et y dans [-1;1] et l’origine de O;i;j

$segment = sqrt($x ** 2 + $y ** 2);

if ($segment <= 1)
{
$cercle++;
}
if ($segment > 1)
{
$carre++;
}

}  # end for

$quotient = $cercle / $carre;
$valeur = 4 * $quotient / ($quotient + 1);
print « Résultat de l’expérience de Monte Carlo : $valeur \n »;
$str = « $str $valeur »;
}
print « Série : $str \n »;
Pour résumer, une série de 20 valeurs du nombre pi où chaque valeur a nécessité la génération d’un million de points aléatoires a conduit au résultat suivant :

Résultat de l’expérience de Monte Carlo : 3.139772
Résultat de l’expérience de Monte Carlo : 3.140688
Résultat de l’expérience de Monte Carlo : 3.14104
Résultat de l’expérience de Monte Carlo : 3.141588
Résultat de l’expérience de Monte Carlo : 3.141472
Résultat de l’expérience de Monte Carlo : 3.140552
Résultat de l’expérience de Monte Carlo : 3.138912
Résultat de l’expérience de Monte Carlo : 3.142956
Résultat de l’expérience de Monte Carlo : 3.141696
Résultat de l’expérience de Monte Carlo : 3.14062
Résultat de l’expérience de Monte Carlo : 3.14042
Résultat de l’expérience de Monte Carlo : 3.141084
Résultat de l’expérience de Monte Carlo : 3.142708
Résultat de l’expérience de Monte Carlo : 3.142796
Résultat de l’expérience de Monte Carlo : 3.140104
Résultat de l’expérience de Monte Carlo : 3.141116
Résultat de l’expérience de Monte Carlo : 3.14304
Résultat de l’expérience de Monte Carlo : 3.143192
Résultat de l’expérience de Monte Carlo : 3.142144
Résultat de l’expérience de Monte Carlo : 3.144828
Série :  3.139772 3.140688 3.14104 3.141588 3.141472 3.140552 3.138912 3.142956 3.141696 3.14062 3.14042 3.141084 3.142708 3.142796 3.140104 3.141116 3.14304 3.143192 3.142144 3.144828

 

  • Statistiquement, le nombre pi vaut 3,142 plus ou moins 0,001408.
  • Et par conséquent, le nombre pi est compris dans l’intervalle [3,140592 ; 3,143408], ce qui est correct.

Les tests probabilistes sont intéressants lorsqu’il arrive que des équations ne peuvent pas être résolues, ou parce qu’on désire gagner du temps. Cette technique probabiliste peut aider à déterminer des surfaces et des volumes qui peuvent être très compliqués à résoudre par calcul direct. Dans la page wikipedia sur la méthode de Monte Carlo, on peut y lire que «le véritable développement des méthodes de Monte-Carlo s’est effectué sous l’impulsion de John von Neumann et Stanislas Ulam notamment, lors de la Seconde Guerre mondiale et des recherches sur la fabrication de la bombe atomique. Notamment, ils ont utilisé ces méthodes probabilistes pour résoudre des équations aux dérivées partielles».

 

 

© 2014 John Philip C. Manson

 

Publicités

Estimation de la proportion des océans du globe selon la méthode de Monte Carlo

Comme un morpion malpoli, insultant et débile (dont le message a été supprimé par Yahoo depuis…) ne m’a pas pris au sérieux quand j’avais raconté que l’on peut estimer la proportion de la surface des océans du globe par rapport à la surface totale au moyen d’une méthode statistique, alors je vais prouver que c’est possible dans le présent article.

Description de la méthode :

On pixelise la surface du globe terrestre en un grand nombre de points disposés aléatoirement (ça tombe au hasard soit en mer, soit sur continent). Ensuite on compte le nombre de points situés dans les océans par rapport au nombre total de points.

Cette méthode statistique est connue sous le nom de méthode de Monte Carlo. Cette méthode sert même à déterminer la valeur du nombre π. Hé oui, ça marche avec des méthodes aléatoires. N’en déplaise à certains, hein…

Historiquement, le véritable développement des méthodes de Monte-Carlo s’est effectué sous l’impulsion de John von Neumann et Stanislas Ulam notamment, lors de la Seconde Guerre mondiale et des recherches sur la fabrication de la bombe atomique. À l’époque, il fallait trouver des moyens de calculer plus vite ou de gagner du temps. Cela peut paraître paradoxal, mais les méthodes aléatoires ça marche. Sinon, cela aurait été de la folie de s’en servir inutilement en temps de guerre, n’est-ce pas ?…

J’ai conçu un programme en langage Perl. La latitude géographique est dans l’intervalle -90° et +90°, et la longitude géographique est dans l’intervalle -180° et +180°. Le signe de chaque valeur a 50% de chances d’être négatif et 50% d’être positif.

Voici le code source du programme Perl :

#!/usr/bin/perl

for ($stat = 1; $stat <= 30; $stat++)
{
$boolean1 = rand();
$boolean2 = rand();
$signe1 = 1;
$signe2 = 1;

if ($boolean1 < 0.5)
{
$signe1 = -1;
}
if ($boolean2 < 0.5)
{
$signe2 = -1;
}
$latitude = $signe1 * rand(90);
$longitude = $signe2 * rand(180);
print « $latitude,$longitude \n »;
}

En exécutant le programme, j’obtiens une liste de 30 coordonnées géographiques. Je reporte chacune sur le site de https://maps.google.fr. Et j’examine sur quel endroit ça tombe sur le globe terrestre.

Voici la liste des 30 coordonnées obtenues aléatoirement :

61.1818135145515,174.455953265919 : Mer de Bering
63.1572301987557,130.94970081205 : Russie continentale, près de Yakoutsk
27.1788839660237,109.158485777037 : Chine continentale
-34.2470709784551,-60.8486417803449 : Argentine, près de Rojas
30.2648982735253,149.441613619355 : Océan Pacifique, près de la fosse du Japon
-41.447058743573,-162.897429882856 :Océan Pacifique Sud
31.3210105706191,43.0036188922723 : Irak, près de Karbala et de Arar, zone désertique
51.0959386159527,140.353727370045 : Russie continentale, en face de l’île Sakhaline
10.7073637661307,14.7055933236143 : Afrique continentale, près de N’Djamena
72.0511604726763,13.7606796791616 : Mer de Norvège
-3.16467506922542,-118.088800153522 : Océan Pacifique Sud
57.1933402046566,125.42001226909 : Russie
15.0156951780626,23.6173422545232 : Soudan, Afrique
0.693272879419204,105.634334319018 : Mer de Chine méridionale, près de Singapour
5.6853994567647,144.171775358691 : Océan Pacifique Nord
57.1193557755404,142.38070063337 : Mer d’Okhotsk
-3.41863738565195,-32.5558904626026 : Océan Atlantique Sud
-43.4005580335695,-141.274953581579 : Océan Pacifique Sud
-59.1408893833474,-14.057973746069 : Océan Atlantique Sud
-43.7273570900159,-38.1967736934708 : Océan Atlantique Sud
-60.9623306576857,-159.857997835532 : Océan du Sud, près de l’Antarctique
-61.7294340657307,-136.373618618663 : Océan du Sud, près de l’Antarctique
-38.407476056716,-89.1450323175193 : Océan Pacifique Sud
-18.5078245475625,-178.966282115071 : Océan Pacifique, près de Wallis et Futuna
34.7556621320018,100.282355112638 : Chine continentale
20.3173332238488,58.0407740428225 : Mer d’Arabie, entre l’Inde et l’Arabie
-68.7392298501737,-21.4141647990727 : Océan du Sud, près de l’Antarctique
7.06014342079737,11.2906061065463 : Afrique continentale, Nigeria
21.5626404513493,135.18144372669 : Océan Pacifique Nord
27.0773473134182,90.1556991052541: Bhoutan, Asie

  • Bilan : il y a 19 points situés dans les océans par rapport à 30 points du globe au total. Avec l’échantillon de 30 coordonnées, le résultat montre ici que les océans occupent 63,33% de la surface du globe. On n’est pas trop loin des 70% attendus. Avec un échantillon de dizaines de milliers de coordonnées, ou des millions, la précision est sensiblement meilleure. Avec seulement 30 coordonnées, l’échantillon reste insuffisant, mais il a juste servi d’exemple pour l’article ici. Il est possible d’améliorer le code du programme pour rendre la besogne plus rapide, et en ayant un échantillon plus représentatif.

Voici le code source modifié :

for ($stat = 1; $stat <= 30; $stat++)
{
$boolean1 = rand();
$boolean2 = rand();
$signe1 = 1;
$signe2 = 1;
if ($boolean1 < 0.5)
{
$signe1 = -1;
}
if ($boolean2 < 0.5)
{
$signe2 = -1;
}
$latitude = $signe1 * rand(90);
$longitude = $signe2 * rand(180);
$url = « maps.google.fr/maps?q »;
print « <a href=\ »$url=$latitude,$longitude\ »>Position n° $stat</a> \n »;
}

© 2013 John Philip C. Manson

Les tests de QI et le théorème de Bayes

Il est possible de démystifier le concept de QI au moyen de la théorie des probabilités.

Le théorème de Bayes peut donner des indications intéressantes.

Dans un ancien article : https://jpcmanson.wordpress.com/2012/05/24/experience-statistique-sur-9-tests-de-qi/ j’ai pu obtenir quelques indications quantitatives.

Ainsi, quand des tests de QI ont une fiabilité de 83% (d’après mes calculs, et supérieure à 70% d’après ce site : http://villemin.gerard.free.fr/LogForm/QI.htm), et qu’il y a statistiquement 2% de surdoués par exemple (d’après Mensa), et que mes 9 tests de QI ont montré que j’avais 68,2% de chances que mon QI soit compris entre 115 et 137 (d’après mes calculs), alors j’ai pu établir qu’il existait statistiquement un risque non nul de faux positifs.

En effet, avec mes chiffres, et en utilisant le théorème de Bayes, le calcul montre qu’il y aurait environ 0,8% de personnes dépistées comme surdouées alors qu’elles ne le sont pas. Ainsi, si les 65 millions de français passaient tous des tests de QI, il y en aurait environ 520 000 déclarés surdoués alors qu’ils ne le sont pas (ce sont les faux positifs).

  • Le très intéressant livre «Cours d’autodéfense intellectuelle» de Normand Baillargeon parle du théorème de Bayes dans la page 202, le théorème étant appliqué dans le cas du dépistage d’une maladie d’après l’exemple donné dans le livre.

En continuant de lire la page sur http://villemin.gerard.free.fr/LogForm/QI.htm je remarque une contre-vérité. Les personnes célèbres à fort QI : vous constaterez dans la liste que toutes ces célébrités ont vécu AVANT l’invention des tests de QI. Remarquez que l’on ne peut pas mesurer le QI de personnes décédées avant la Première Guerre Mondiale, parce que les tests de QI n’existaient pas encore…

  • Goethe mourut en 1832
  • Blaise Pascal mourut en 1662
  • John Stuart Mill mourut en 1873
  • Descartes mourut en 1650
  • Thomas Chatterton mourut en 1770
  • Voltaire mourut en 1778
  • Dickens mourut en 1870
  • Lord Byron mourut en 1824
  • George Sand mourut en 1876
  • Mozart mourut en 1791
  • Benjamin Franklin mourut en 1790
  • Thomas Jefferson mourut en 1826

Dans pareil cas, la réfutabilité de tels tests de QI s’impose… Quant à tout autre méthode indirecte de mesure du QI, c’est très contestable.

 

© 2013 John Philip C. Manson

Y a t-il un sens entre la fréquence des prénoms et la réussite au Baccalauréat ?

prenoms-series-2012

La fréquence statistique des prénoms dans un pays, sans relier ceux-ci à rien, sauf d’abord à travers le choix des parents, ça varie selon chaque prénom. Déjà, les fréquences des prénoms entre eux sont inégales. Il y a aussi les effets de mode selon les époques. Les prénoms varient aussi en fonction de l’origine socio-culturelle. Comparer des prénoms majoritaires par rapport à n’importe quoi (comme le Bac par exemple), ça ne veut rien dire.

Après le Bac, il y a l’entrée dans la vie active, enfin, si on peut réussir à trouver un boulot. Quel est le prénom le plus fréquent chez les chômeurs inscrits à Pôle Emploi cette année ?… La réussite est un facteur qui dépend du travail réalisé par chacun, indifféremment selon les prénoms, puisque qu’à la base les prénoms sont chacun déjà plus ou moins fréquents les uns par rapport au autres. avec peut-être l’influence de l’origine socio-culturelle (il est beaucoup plus facile de réussir des études quand on a des parents qui sont profs), mais les prénoms ne sont qu’un critère secondaire et superficiel dont il est vain d’y trouver un sens. Remarque : que des filles en Bac L et aucune en Bac S, l’absence stricte ou l’omniprésence stricte n’est pas statistiquement crédible. En Terminale S, il y a un peu moins de filles que de mecs, mais elles ne sont pas absolument absentes… Souvenons-nous par exemple que notre jolie et adorable miss France 2013 a un Bac S avec mention très bien. En 2009, au Bac S, il y a 47% de filles et 53% de mecs, c’est presque à égalité (source = http://media.education.gouv.fr/file/2011/37/6/Les_resultats_170376.pdf), alors je suis surpris de l’absence de prénoms féminins dans la liste de Bac S ici. Et il y a 79,3% de filles et 20,7% de garçons au Bac L en 2009 (même source), mais dans la liste de 12 prénoms en Bac L ici les mecs sont totalement absents. Pourtant, le taux de réussite au bac, en moyenne, est de 86%.

Je ne conteste pas l’étude sociologique, je veux juste l’explication de la contradiction quantitative.

Autre paradoxe : les prénoms les plus fréquents au bac ne correspondent pas aux prénoms des bébés nés vers 1994 (les bacheliers ayant environ 18 ans au bac 2012). En effet, aucune trace des prénoms féminins Manon, Camille, Marine, Pauline, Léa, Marion, Anaïs, Julie, Chloë et Sarah dans la liste affichée dans l’image ci-dessus. Pareil pour les prénoms masculins Thomas, Alexandre, Nicolas, Kevin, Maxime, Quentin, Julien, Dylan, Antoine et Florian… Pourquoi ?

J’en rigole, je vois mon prénom (Jean-Philippe = John Philip) dans la filière STI2D alors que je n’ai jamais suivi cette voie.

iconlol

 

Yahoo surenchérit sur le thème : http://fr.news.yahoo.com/quels-pr%C3%A9noms-r%C3%A9ussissent-au-bac-115222817.html

Ma nouvelle réponse :

bac-prenoms

 

© John Philip C. Manson

Les statistiques sur Google et les autres moteurs de recherche

Quelques articles plus tôt, j’avais publié deux expériences de statistiques appliquées au moteur Google :

Aujourd’hui, au moment où j’écris ce nouvel article, je dois apporter une modification à cause de nouveaux paramètres. Mon principal contact Facebook s’est intéressé à mes deux tests statistiques mais il a souligné que je m’étais seulement concentré sur Google, et que je devais vérifier aussi sur d’autres moteurs de recherche parce que, selon lui, les résultats sont différents. J’ai pris sa remarque au sérieux.

Par exemple, une recherche sur bing.com (pour toutes les dates) montrent une majorité de liens vers des sites de science (taux de 90%). Cependant, le moteur Bing, contrairement à Google, ne permet pas de lister les résultats les plus récents (les pages d’il y a moins d’une heure)… Comme on le sait, la liste des résultats les plus récents sur le mot-clé « quantique » sur Google présente un taux alarmant de mysticisme, mais une recherche générale sur Google pour toutes les dates montre seulement 20% de sites douteux (thérapie quantique, expérience de mort imminente…). Cette observation montre une tendance actuelle vers une dénaturation de la théorie scientifique en une doctrine mystique, quand on examine les pages récentes par rapport à l’ensemble des pages plus anciennes. Mon contact Facebook a t-il pris en compte une variation des statistiques en fonction du temps ? Jusqu’à présent, je me basais seulement sur Google, c’est vrai, mais je me basais aussi sur la dernière heure de publication des pages recensées par Google, mais pas sur toutes les pages contenant le mot « quantique » pour toutes les époques.

Mon contact Facebook m’a fourni lui-même sa propre analyse statistique :

  • duckduckgo.com (sans profils, filtres, etc), résultats différents de ceux de Google : science = 67% / arts + divers : 12% / mysticisme : 21% …

De mon côté, j’effectue une recherche générale du mot « quantique » sur duckduckgo : il y a 5 sites douteux parmi 22 résultats, soit un taux de 22,7%, ce qui est proche du taux relevé par mon contact Facebook.

Les moteurs de recherche diffèrent entre eux par leur propre algorithme : duckduckgo se distingue en utilisant les informations de crowdsourcing provenant d’autres sites (comme Wikipédia) dans le but d’enrichir les résultats traditionnels et d’améliorer la pertinence.

De mon propre aveu, depuis l’an 2000, j’ai très rapidement utilisé Google comme unique moteur de recherche. Google est mon ami, ma religion. 

Mais comme je l’avais fait remarquer souvent dans mon blog, il faut recouper les informations entre elles, réunir une diversité de documents afin de débusquer des failles et des contradictions. Je vais explorer sur duckduckgo pour me donner une idée. Je n’abandonnerai pas Google pour autant.  ^^

J’ai parlé des algorithmes des moteurs de recherche. Ma question est simple : quel algorithme est le plus représentatif et le plus objectif du web ?

© 2013 John Philip C. Manson

Expérience statistique sur 9 tests de QI

  • J’ai réalisé une expérience de statistiques en psychométrie sur moi-même. J’ai ainsi trouvé un site de tests de QI à peu près aussi «fiable» que les tests faits par les professionnels. Vers 1998, je savais déjà que mon QI est entre 120 et 132.

Tout d’abord, je précise que je suis sceptique et critique à l’égard du concept de QI. J’avais déjà rédigé des articles à ce sujet : https://jpcmanson.wordpress.com/2012/04/16/la-mystification-du-qi-et-le-mythe-du-genie/ https://jpcmanson.wordpress.com/2011/12/05/le-qi-un-produit-marketing/ https://jpcmanson.wordpress.com/2011/12/03/au-fond-quest-ce-que-le-qi/

Dans mon expérience, j’ai pris comme hypothèse de départ que le QI n’est pas scientifiquement valide du fait qu’il ne prend pas en compte une marge d’incertitude. Déjà, du point de vue réfutabilité poppérienne, la question est : «peut-on prouver qu’un test de QI est faux si celui-ci est faux en soi ?».

  • J’ai fait 9 tests de QI, chacun étant composé de 30 questions.

Mon pire score est de 103, mon meilleur score est de 143. Déjà, là, l’écart est important. Cela fait une moyenne de 123 plus ou moins 20 points d’incertitude, soit 32,5% de marge d’erreur sur la valeur moyenne.

  • Voici la liste des scores de chacun des 9 tests : 119 ; 135 ; 131 ; 131 ; 103 ; 131 ; 119 ; 119 ; 143.

En faisant la moyenne sur les scores les plus fréquents (119 et 131), ça correspond à une moyenne de 125 plus ou moins 6 points, soit une marge d’erreur de 9,6%.

La moyenne globale des 9 tests est de 126 (assortie d’une erreur d’environ 36%).

D’un test à l’autre on n’obtient jamais le même résultat, malgré que certains scores réapparaissent trois fois (le 119 et le 131). Qu’est-ce qui compte finalement ? La moyenne de tous les tests, ou le meilleur score, ou le pire score ? Pourquoi les tests ne prendraient-ils pas compte de la marge d’incertitude comme cela se fait dans les sciences comme la physique ?

Selon moi, le QI n’est qu’un indicateur approximatif, il dépend même de l’âge (lequel avait été pris en compte lors des tests), et il ne prétend pas mesurer quantitativement l’intelligence selon des critères objectifs.

En outre, d’après les meilleurs résultats (supérieurs à 130, ce qui concerne 5 tests sur 9), je serais a priori surdoué (avec une probabilité de 56% si on tient compte de l’incertitude, je précise). Donc un test isolé de QI ne prouve rien. Et un ensemble de tests de QI dont on fait la moyenne des résultats, ça laisse planer un doute.
C’est un peu comme jouer à pile ou face : soit on est tout con, soit on est fûté. Bref, je doute de la scientificité des tests de QI : les scores auraient dû donner une moyenne avec une marge d’erreur de 1% à 3% maximum, mais pas 10% ni 36%…

Mais ce n’est pas fini. J’ai tenté de voir s’il existait un lien entre le QI et le nombre de bonnes réponses par rapport aux 30 questions par test. Ce calcul ne vaut que pour le site web sur lequel j’ai passé les 9 tests.

Voici la liste des 9 tests, avec le QI et le nombre de bonnes réponses sur 30 :

  1. 119 : 21 bonnes réponses
  2. 135 : 25
  3. 131 : 24
  4. 131 : 24
  5. 103 : 17
  6. 131 : 24
  7. 119 : 21
  8. 119 : 21
  9. 143 : 27

Un aperçu de mon meilleur score : Bof, cela a dû prendre aussi en compte mon immense connerie.

Oui, il existe un lien entre le QI et le nombre de bonnes réponses sur 30 questions. J’ai remarqué que le QI est proportionnel au nombre de bonnes réponses.

Ainsi, le score S est proportionnel au QI, selon cette égalité :     S = (QI – 35)/4

Et par conséquent, le QI s’exprime linéairement en fonction du nombre de bonnes réponses :     QI = 4S + 35.

Remarques sur cette équation :

  • Si on a tout faux dans un test de 30 questions, avec 100% de mauvaises réponses, alors le QI est de 35, il n’est pas nul.
  • Cependant, si toutes les réponses sont bonnes, soit 100% de bonnes réponses, alors le QI est de 155 maximum.

Il existe toutefois un biais dans chaque test : il est possible de donner une réponse au hasard. Ainsi, lorsqu’on a le choix entre 4 réponses possibles pour chacune des 30 questions, on a donc une probabilité de 1/4 de trouver la bonne réponse au hasard à chacune des 30 questions.  Ce qui fait a priori une quantité de 7,5 bonnes réponses trouvées pour avoir répondu absolument au hasard, indépendamment de tout raisonnement. Par conséquent, cocher les réponses au hasard dans un test de QI de ce genre, cela crée un biais conduisant à un QI faux de 4×7,5 + 35 = 65. En conclusion : si on échoue totalement au test de QI en répondant «je ne sais pas» à chacune des 30 questions, le QI est de 35 ; et le QI atteint 65 si on répond complètement au hasard ; cela veut dire que si quelqu’un obtient un résultat de QI supérieur à 65 dans un test, ça voudra dire qu’il n’y a pas répondu au hasard, et qu’il a forcément réfléchi (de son mieux) en répondant aux questions.

Réédition du 18 janvier 2014 :

  • Répondre à une question au hasard a une probabilité de 1/4. Or, pour appliquer un calcul de probabilité sur le nombre de questions répondues correctement sur 30 questions, il faut utiliser la loi binomiale. Ainsi, pour réussir 30 questions sur 30, la probabilité d’avoir fortuitement un QI de 155 est de 1 sur 1,15 milliard de milliards. Ensuite, la probabilité d’échouer lamentablement à toutes les 30 questions au hasard est de 1 sur 5600 environ (on a donc une chance sur 5600 de se faire attribuer un QI catastrophique de 35 si on effectue le test de 30 questions au hasard. La probabilité pour répondre juste à 15 des 30 questions sera d’une chance sur 518, ce qui fait se voir attribuer un QI de 95 qui est avantageusement proche du QI moyen de 100. On a la probabilité optimum de 1/6 de réussir au hasard 7 questions sur 30 pour obtenir un QI critique de 63, c’est l’événement le plus probable. C’est un fait : le hasard peut conduire à un biais statistique !

Conclusion générale : étant donné mes 9 résultats, l’incertitude fait que je ne connais pas vraiment mon QI. Je suis au-dessus de la moyenne, mais on ne peut pas être vraiment précis sur le positionnement.

Quelques heures plus tard, j’ai essayé le test préliminaire de 40 questions sur le site de Mensa France. J’ai obtenu un score de 30 bonnes réponses sur 40, je pense que cela correspond à un QI de 125. En examinant le corrigé, j’aurais même pu obtenir une bonne réponse de plus si j’avais fait gaffe à un cheveu près, ce qui aurait fait a priori un QI de 128.

Je pense que d’un test à l’autre il y a des divergences dans les résultats, le QI n’est jamais autour d’un degré restreint d’incertitude, même dans les mêmes types de tests. Je soupçonnais une assez grande marge d’incertitude sur le degré de QI mesuré, et maintenant j’en suis convaincu.

Autre chose : je n’ai jamais considéré les meilleurs QI comme «supérieurs», je n’aime pas ce mot. Ils sont différents, ils fonctionnent différemment, oui, mais pas supérieurs. Même le mot «surdoué» évoque la supériorité… Il n’y a pas vraiment de don ou de surdon, puisque cela n’est jamais synonyme de réussite ou d’adaptation. Ce qui signifie qu’il existe trop souvent des situations autant risibles que génératrices de souffrance : l’enseignement est souvent inadapté parce qu’il croit que toute le monde fonctionne pareil, beaucoup de parents s’estiment «parents de surdoués» quand ce n’est pas vraiment le cas (ils accusent l’école sans se remettre en question eux-mêmes), tandis que les (vrais) «surdoués» qui existent dans l’ombre sont incompris par tout le monde (par l’école, au boulot et aussi par leur famille, d’où une profonde solitude dont on finit par s’habituer).

À travers mes observations, c’est que les «doués» semblent très bien armés en logique, en maths et autres aptitudes connexes que le reste de la population, mais ils restent souvent inadaptés et démunis en société. Tandis qu’une grande majorité de la population sait gérer les relations sociales, les gens ne sont pas trop adeptes de la logique et des maths. Bref dans l’ensemble il y a comme une forme d’équilibre entre les atouts et les handicaps. D’où l’absurdité de superlatifs comme le mot «supérieur» et le mot «inférieur», c’est ridicule. Chaque humain est toujours bon à quelque chose. Mais ceux au-dessus de la «norme» ont-il rendu le monde meilleur ? Tout est vain. Même avec les efforts des sceptiques les mieux organisés, il existera toujours de l’obscurantisme et de la crédulité chez les autres, il restera des cinglés qui croiront encore à la fin du monde, qui attendent les extraterrestres et qui croiront encore à l’avènement d’un monde idéal, idyllique et parfait…

Être intelligent, finalement, ça ne sert à rien. Des efforts foutus en l’air, par exemple quand des fêlés récupèrent la physique quantique (la théorie fut mise au point par des scientifiques brillants) pour la sortir de son contexte pour bricoler une sorte de connerie mystique complètement inepte : le mysticisme quantique. La préhistoire est un éternel recommencement… La science a succédé à des millénaires d’obscurantisme et de superstitions, et quelques siècles de science sont en train d’être saccagés et déformés par les pseudo-sciences et les sectes, un grand retour de l’obscurantisme. Quelle honte.

Je ne crois pas à l’intelligence humaine. Je crois à l’existence de la connerie humaine.

© 2012 John Philip C. Manson

Ajout du 18 avril 2013 :

En reprenant les scores de QI : 119,135,131,131,103,131,119,119,143 ; j’ai un complément sur les statistiques à raconter.

  • Moyenne des scores : QI = 125,67
  • Médiane : QI = 131
  • Mode :  QI = 119 ou 131 (incertitude entre l’une et l’autre)
  • Écart-type empirique :  11,16 (en théorie, ce nombre est égal à 15, ce qu’on trouverait avec un plus grand nombre de tests effectués)
  • Variance :  124,44

Résultat :

  • il y a 68,2% de probabilité que mon QI soit compris entre 115 et 137.
  • la marge d’incertitude de statistique empirique de mon QI est d’environ 17,5%.
  • Comme il n’y a que 9 tests effectués, les résultats sont insuffisants, on aura de meilleurs conclusions avec un plus grand nombre de tests (il faudrait au moins 100 tests pour avoir des résultats statistiques significatifs, mais j’ai franchement mieux à faire que faire des tests de QI…)

Mise à jour du 18 janvier 2014 :

  • L’écart-type (qui vaut 11,16) a été calculé à partir du neuvième de la somme des carrés des différences entre chaque QI donné d’avec le QI moyen.
  • Cet écart-type de 11,16 est très proche de la racine carrée du QI moyen de 125,67 qui est un écart-type (de valeur 11,21) typique de la loi de Gauss et de la loi de Poisson. En effet, dans la loi de Poisson, mon QI moyen (125,67) dans le cas du calcul de probabilité de mon QI correspond au carré de l’écart-type. Voir ici : http://fr.wikipedia.org/wiki/Loi_de_poisson
  • Conclusions complémentaires : j’ai une probabilité de 98,67% d’avoir un QI supérieur à 100, et j’ai une probabilité de 37,3% d’avoir un QI supérieur à 130, et j’ai une probabilité de 71,9% d’avoir un QI supérieur à 120, puis une probabilité de 55,32% d’avoir un QI supérieur à 125.
  • Conclusion générale actuelle : si le QI de l’ensemble de la population est calibré à une moyenne de 100, je dois préciser que chaque QI individuel (le vôtre, le mien…) comporte une marge d’incertitude. Un QI individuel n’est pas fixé selon une valeur entière précise (126 dans mon cas). Ainsi, dans mon cas, j’ai 69,52% de chance d’avoir un QI compris entre 115 et 137, on ne peut pas dire avec certitude si mon QI de 126 est réellement de 126. Les tests de QI ne sont pas un dogme ni un outil absolu. Ils ne sont qu’un indicateur avec les nuances qu’il comporte. Ainsi, j’ai une probabilité d’environ 37,7% d’être « surdoué » (un surdoué par définition aurait un QI d’au moins 130). Puis de toute façon, je n’aime pas l’appellation « surdoué », cela donne une connotation d’élitisme (ce que je trouve stupide). Certains préfèrent l’appellation de « zèbre » pour désigner un « surdoué », moi-même je préfère le mot « cérébral » c’est plus simple… Zèbre, oui j’admets que c’est un surnom plus sympa.  « Hiii han !!! »    😉

 

Mise à jour du 13 juillet 2014 :  avec un intervalle de confiance de 95%, mon QI est compris entre 118 et 133.

 

© 2013 John Philip C. Manson