Peut-on mesurer mathématiquement et objectivement les compétences des élèves ?

Avec Alfred Binet vers 1905, le concept psychométrique de QI a permis d’évaluer l’âge mental par rapport à l’âge mental moyen scolaire, afin de détecter des retards du développement. Le QI, à la base, ne mesure pas l’intelligence…

Sur un principe similaire (la courbe de Gauss), peut-on évaluer objectivement et mathématiquement les élèves d’une classe ? Je pense que oui, même si actuellement la notation par les profs est souvent subjective…

Comme exemple, je vais me baser sur le concept de QCM, un questionnaire basé sur 30 questions dont chaque question a une seule bonne réponse possible parmi 4 réponses proposées. Bref, un QCM rempli par un élève aura alors entre 0 bonne réponse (devoir noté 0/20) et 30 bonnes réponses (devoir noté 20/20).

Mais doit-on noter le QCM de façon proportionnelle, tel que le nombre de bonnes réponses est proportionnel à la notation sur 20 ? Non, et je vais expliquer pourquoi.

En fait, la conversion du nombre de bonnes réponses en note sur 20 est une loi logarithmique. En effet, à chacune des questions du QCM, il existe une probabilité de 1 chance sur 4 d’avoir une bonne réponse par question. Par conséquent, si un élève répond au hasard complètement au QCM, il aura en moyenne 7 bonnes réponses sur 30, dans ce cas on ne pourra pas lui attribuer une note de 7 sur 30, c’est-à-dire 4,66 sur 20. Obtenir un gain après avoir répondu au hasard, ce n’est pas légitime. Il faut donc prouver que l’on peut réaliser un score meilleur que le pur hasard, pour se démarquer de façon statistiquement significative. D’où une échelle logarithmique de conversion.

 

  • Entre 0 et 7 bonnes réponses sur 30, la note sera de 0/20. Dans cet intervalle, un élève connaît forcément les bonnes réponses mais aura choisi délibérément de mettre des réponses fausses. Même si c’est rare que ça arrive de faire zéro bonne réponse au hasard, sauf si l’élève ne répond pas du tout aux questions, c’est éliminatoire.
  • Avec 7 bonnes réponses, c’est le score le plus fréquent obtenu en moyenne par le hasard. Aucun point n’est attribué : 0/20. La note devient supérieure à zéro sur 20 au-delà de 7 bonnes réponses au QCM. C’est logique.
  • À partir de 12 points sur 30, la différence devient significative statistiquement (p-value = 0,05, distanciation de 2 écarts-types, et d’après la loi binomiale), auquel cas la note sera la moyenne : 10/20. L’écart-type est égal à 2,37.
  • À partir de 14 ou 15 points sur 30,  une nouvelle significativité (p-value = 0,01, distanciation de 3 écarts-types, et selon la loi binomiale), auquel cas la note sera de 12/20.
  • Enfin, avec 30 points sur 30, la note sera évidemment de 20/20. Mais la fonction dans son ensemble dans l’intervalle [7 ; 30] est logarithmique.
  • Équation approximative : note sur 20 = 13,51 * ln (0,1561 * bonnes réponses).
  • Il est possible d’ajuster autrement la notation : on pourrait par exemple attribuer 8/20 pour 12 points sur 30, mais cela ne changera que peu la courbe. Reste à définir correctement ce seuil. Le but de l’évaluation ici, c’est de voir l’effort fourni par rapport au hasard.

 

Voila ce que ça donne graphiquement, en première approximation :

 

L’intérêt d’un QCM correctement calibré est de mesurer le plus fiablement possible la quantité d’effort intellectuel par rapport à ce qu’on obtiendrait au hasard

Tu joues au hasard ? Donc tu n’as fait aucun effort, alors zéro pointé… Un peu d’effort afin de s’éloigner du hasard ? Tu gagnes alors des points. Mais plus l’effort sera important, plus ça devient dur d’essayer d’atteindre 30 bonnes réponses aux 30 questions du QCM (croissance logarithmique). C’est simple. Quel meilleur arbitre existe t-il de mieux que le hasard et de se mesurer contre lui ? C’est mieux que la subjectivité des profs dont les notes données à un élève varient sensiblement d’un prof à l’autre, même quand l’élève ne change pas sa méthode de travail (pour une même matière, aucun prof ne note pareil qu’un autre prof). Le travail ne se mesure que par le seul mérite, par l’effort de l’élève. Établir des quotas arbitraires et aveugles pour favoriser les élèves à avoir le Bac, de façon à ce qu’un maximum d’élèves aient le Baccalauréat, ce n’est pas une évaluation objective, ça ne veut rien dire. Il faut évaluer les compétences des élèves pour ce qu’elles valent réellement. Les mauvaises notes ne servent ni à juger ni à punir, mais à inciter à progresser grâce à des efforts réguliers (cela s’apprend, et peut ainsi devenir une bonne habitude). La réussite ça ne fonctionne pas autrement.

QI et probabilités

À la base, le QI est un concept statistique qui sert à dépister les enfants en âge scolaire qui sont en retard scolaire par rapport à la moyenne. C’est-à-dire que pour un individu quelconque, l’on définit un âge mental de développement par rapport à l’âge physique. Bien qu’initialement intéressant en tant qu’outil psychométrique, le QI est un concept qui a dérivé ensuite dans la recherche de «petits génies», et qui a surtout été transposé pour l’usage à des personnes adultes où le concept de QI perd son sens. C’est-à-dire qu’il est peu crédible qu’un quinquagénaire par exemple soit encore en développement cérébral au même degré qu’un enfant et donc soit équivalent à un enfant en pleine croissance et en plein éveil.

 

La question à se poser est la suivante : le QI d’un humain est-il sans limite ou en a t-il une ? Tout est affaire de nombre de cas probables sur l’ensemble de la population humaine.

La loi normale dans le concept du QI se base sur un QI moyen de 100, avec un écart-type de 15.

Par exemple, il y aurait 2,3% des individus qui ont un QI supérieur ou égal à 130.

Considérons ensuite l’hypothèse d’un cas humain unique, le «génie» vivant ultime, qui existerait parmi 7 milliards d’humains. Comme nous connaissons par définition la probabilité d’un tel cas (1 individu sur 7 milliards), quel peut bien être son QI ?

L’intégrale de la fonction normale de Gauss dans l’intervalle [x; infini] où x est la grandeur du QI à évaluer devra donc être égale à 1 sur 7 milliards. La valeur x correspondante, en l’arrondissant à l’entier le plus proche, vaut 195.

Ainsi, un être humain contemporain et unique parmi la population aura un QI maximum de 195. Un QI supérieur à 195 implique une probabilité inférieure à 1 cas sur 7 milliards. Le QI maximum vaut 200 si l’on considère qu’il existe un humain unique sur les 75 milliards d’humains qui nous ont précédé et qui n’existent plus. C’est-à-dire un cas unique tous les 150 000 à 200 000 ans environ…

Par conséquent, il est logique de considérer qu’il est peu probable de rencontrer un individu dont le QI est supérieur à 200. Il est même quantitativement bien plus probable de gagner le gros pactole à des jeux de hasard, comme le Loto ou Euromillions que de rencontrer un… un extraterrestre… dont le QI est de 200. Sauf peut-être si on arrive à le recruter sur Internet (à condition que l’individu existe !).

iconlol

Un QI de 200 correspond à quoi ? Cela équivaut à un enfant âgé de 10 ans et qui a un diplôme de Bac +2 (âge mental de 20 ans). Cela équivaut aussi à un ado de 13 ans qui a obtenu un doctorat (âge mental de 26 ans).

Mais le QI des personnes devenus adultes ne signifient plus grand chose : les tests de QI pour adultes ça équivaut plutôt à jouer au Sudoku, un simple sport cérébral pour le fun et non une évaluation sérieuse. De plus, les tests de QI sont centrés sur la logique, la mémoire, quelques connaissances culturelles et l’aptitude visuo-spatiale, mais pas la créativité artistique (les artistes ne sont pas débiles mais les tests de QI s’en foutent) ni l’aptitude à l’esprit critique (un mec très instruit mais néanmoins crédule n’est pas vraiment intelligent mais les tests de QI s’en foutent…), ni même le comportement social. Bref, le concept de QI, non seulement inadapté quand il est appliqué aux adultes, ne considère pas la nature humaine dans la globalité de ses facultés.

Les tests de QI ? Ils mesurent l’égo. Tout est vanité…

iconlol

© 2014 John Philip C. Manson

 

Quand Wikipedia manque d’objectivité dans la démarcation science/pseudoscience

  • Ainsi, je suis tombé assez rapidement sur l’article Biophoton. Article instructif en apparence, mais veuillez lire la page de discussion pour comprendre que le doute est la meilleure attitude à adopter : Discussion:Biophoton. Que les wikipediens ne me racontent pas avec mauvaise foi que l’objectivité n’est d’aucune utilité. Wikipedia a vraiment besoin d’objectivité. L’objectivité est une nécessité et un devoir quand on contribue à relayer des informations, et c’est l’un des devoirs de la charte déontologique du journalisme : parmi les devoirs, il y a le respect de la vérité, l’impératif de ne publier que des informations «dont l’origine est connue» ou accompagnées de réserves, et l’obligation de «rectifier toute information qui se révèle inexacte».

Copie d’écran des deux contributeurs sceptiques à l’encontre de l’article Biophoton (cliquez sur l’image pour l’agrandir) :

  • C’est inquiétant : l’article Biophoton fut créé en 2008, il y a eu monsieur Laurent Mignon (merci à lui) qui a exprimé un début d’indignation en 2009, et moi j’apporte les preuve que l’article Biophoton est une imposture. Il s’est passé environ 4 années (juin 2008 – avril 2012), un article à disposition du public, avant ma mise au point. L’absence de réactions chez les contributeurs wikipédiens c’est effarant, et le pire c’est que ce n’est pas du tout la première fois.

Quand je formule une critique, c’est quand il y a des raisons, et je m’efforce d’apporter un point de vue constructif. Je ne dénigre pas l’encyclopédie en ligne, mais il faut améliorer celle-ci avec vigilance.

Wikipedia, c’est bien, c’est pour tout public, c’est facile d’accès, c’est rapide d’accès, mais il faut lire les articles avec certaines précautions, et il ne faut pas hésiter à modifier ce qui ne va pas.

SKEPTICS, WIKIPEDIA NEEDS YOU !

Au lendemain de l’édition de la page de discussion de l’article Biophoton, un nouveau commentaire est apparu. Voir l’image de copie d’écran ci-dessous :

Affaire à suivre…

———————————————————————————————————————

Liste d’articles de Wikipedia sur le thème de la physique quantique mais qui présentent des références sur le mysticisme, ou sur la pseudo-science, voire le divertissement (œuvre de fiction), ou les hypothèses trop spéculatives  (ces pages ont été trouvées via Google et via l’outil des pages liées à l’article «Mécanique quantique»):

  1. Biophoton (ça on en a parlé)
  2. Esprit quantique (concept controversé, ne pas confondre la conscience qui est une propriété immatérielle émergente de la matière avec les phénomènes neurochimiques a priori quantiques et la structure neuronale ; n’en déplaise Roger Penrose, la mécanique quantique n’a rien à voir avec la psychologie)
  3. Médecine quantique (escroquerie, voir : http://jpmanson.unblog.fr/2011/03/21/larnaque-de-la-physique-quantique-usurpee/)
  4. Biorésonance (concept fumeux dérivé de la médecine quantique)
  5. Cosmologie quantique (à prendre avec des pincettes ; les phénomènes locaux et à l’échelle subatomique peuvent être décrits comme quantiques, mais pas l’univers dans sa globalité du fait de son inconciliation avec la théorie de la relativité)
  6. Instanton de Hawking-Turok  (hypothèse très spéculative ; il faut se souvenir que la géométrie non euclidienne est un outil de représentation faillible et réfutable de la réalité mais n’est pas censé être la réalité elle-même ; le concept de rayonnement de Hawking appliqué aux trous noirs est plus crédible que le concept d’instanton)
  7. Miroir quantique (thème explicitement apparenté à la science-fiction, en particulier la série télévisée Stargate SG1 ; c’est le seul cas où le mot «quantique» est présenté publiquement comme une fiction, donc à distinguer des pseudo-sciences et du mysticisme qui cachent volontairement le caractère fictif de leurs doctrines dans le seul but de tromper autrui)
  8. Univers parallèles  (hypothèse trop spéculative, c’est de la métaphysique, ce n’est plus une hypothèse scientifique ; voir ici : http://jpmanson.unblog.fr/2010/11/04/univers-paralleles-et-paradoxe/)
  9. Mioara Mugur-Schächter (sans faire une quelconque critique de la personne qui fait l’objet d’une biographie dans l’article éponyme, je dois considérer cependant que l’article qui lui est consacrée est assez flou et confus : par exemple on peut y lire une invalidation de théorème, l’expression est elle-même un oxymore, auquel cas il faudrait dire que ce n’est plus un théorème puisqu’il y a (a priori) une réfutation… ; en effet un théorème est clairement démontré, tandis que ce qui est a priori un possible théorème n’est qu’une conjecture ; dans l’ensemble du texte de l’article, ça mérite une révision profonde de la rédaction car l’on n’y comprend pas grand chose de concret)
  10. Micro trou noir (si la théorie quantique peut s’appliquer aux plus petits trous noirs, l’hypothèse de dimensions supplémentaires d’espace est très spéculative et ne repose sur aucune justification empirique qui pourrait suggérer la crédibilité de l’existence de ces dimensions ; si l’espace-temps à 4 dimensions permet de bien décrire la théorie de la relativité générale en conformité avec les faits, le concept de dimensions supplémentaires d’espace est à considérer avec précaution ; pour comprendre mon scepticisme, voir la page Théorie des cordes au paragraphe «Limitations et controverses concernant les théories des cordes» ; en effet, un ensemble d’hypothèses sans preuves empiriques ne font pas une théorie scientifique, il n’y a de théories scientifiques qu’avec l’appui de preuves empiriques au moyen d’hypothèses ayant la possibilité d’être réfutables).
  11. Seth Lloyd (je cite le paragraphe controversé : «Dans son ouvrage de vulgarisation scientifique, Programming the Universe, Lloyd déclare que l’Univers est lui-même un immense calculateur quantique exécutant un programme cosmique qui produit ce que nous voyons autour de nous ainsi que nous-même. Selon Lloyd, une fois que nous aurons une compréhension complète des lois de la Physique, nous serons capable d’utiliser des calculateurs quantiques de petite échelle afin de comprendre l’univers dans sa totalité.» ; je réponds à cela que nos connaissances des lois de la physique resteront toujours incomplète et les théories scientifiques comporteront toujours des incertitudes, je pourrais développer mes arguments, je l’ai peut-être déjà raconté, mais ce serait trop long de tout détailler ici ; pour faire court, je veux dire que le processus de construction de nos connaissances se base sur l’élimination du superficiel par réfutation des hypothèses, et le nombre d’hypothèses concevables est comparativement beaucoup plus grand que le nombre de lois physiques factuelles, et c’est parce que nous avons une représentation mathématique faillible de la réalité qui fait que cette réalité ne sera jamais directement connaissable dans toute son essence ; une quelconque théorie unique qui explique tout de façon complète et certaine c’est une chimère, une utopie qui se heurte par contradiction contre le critère épistémologique de réfutabilité : la science élimine ce qui est superflu, elle n’a pas vocation à ériger des dogmes fixes ni des vérités définitives ; seul ce qui est complet est a priori définitif, la science en soi ne sera jamais complète, elle ne vise pas un but illusoire de connaissance complète finale… Ensuite, autre paragraphe douteux : «Selon Lloyd, nous pourrions simuler dans un ordinateur l’univers tout entier dans les 600 prochaines années», or là aussi ça ne va pas, car pour simuler l’univers tout entier, il faudrait utiliser chacun des 10 puissance 80 atomes de l’univers observable lui-même pour le simuler complètement, et pour être réaliste on n’aura toujours qu’une possibilité de simuler l’univers qu’en partie, mais jamais dans sa totalité, à moins d’utiliser un ordinateur quantique, mais celui-ci ne pourra pas lui-même simuler les propriétés quantiques à l’échelle subatomique de tout l’univers observable, ce qui maintient le paradoxe).
  12. Jean-Émile Charon (un contributeur lucide fait remarquer avec pertinence que «la mécanique quantique n’admet aucune interprétation en rapport avec la conscience ou la philosophie.»)
  13. Princeton Engineering Anomalies Research (PEAR) (alors là, cet article est plus que douteux, il est même classé parmi la catégorie «Organisation de parapsychologie» et il fait partie du portail du Paranormal… Voila un spécimen classique de pseudo-science).
  14. Institut métapsychique international  (après lecture, l’article est relatif à la parapsychologie « scientifique », mais la page de discussion fait part de l’indignation des sceptiques qui se plaignent de censure et qui déclarent que sur Wikipedia la croyance au paranormal règne en maître, et que toute information critique sur les pages pro-paranormals sont très rapidement supprimées par leurs adeptes ; moi-même je suis d’accord avec ces sceptiques qui ont raison de dénoncer le prosélytisme idéologique de certains contributeurs qui se fichent absolument de l’objectivité et qui voient en Wikipedia un vecteur idéal de propagande parce que c’est un site très fréquenté et rapide à éditer)
  15. Ervin László (c’est un philosophe qui relie la théorie quantique avec le concept d’un espace nommé Akasha, ce dernier étant connu pour être une croyance védique propre à l’hindouisme et la spiritualité en Inde, et cet amalgame semble une tentative de conciliation entre la science et la religion, or ce n’est pas le but de la méthodologie scientifique ni de l’épistémologie ni des théories scientifiques. Pour en dire un peu plus, le concept de mémoire akashique est un concept ésotérique créé par la Théosophie à la fin du dix-neuvième siècle à partir d’éléments de la philosophie indienne, et ce concept est populaire de nos jours chez le New Age ; bref c’est de la philosophie, de la spiritualité, mais cela diverge de l’attitude scientifique, on ne peut pas tout mélanger. Cet auteur a écrit un livre «Science and the Akashic Field: An Integral Theory of Everything», ce qui veut dire «La science et le champ akashique : une théorie intégrale du Tout»).
  16. Holisme (ce concept consiste en une interprétation globale et synthétique de la réalité, et cela s’oppose à la pensée analytique selon laquelle chaque partie est étudiée, en ce sens le holisme est une approche différente du scepticisme scientifique fondé sur l’analyse patiente dont le but est la recherche de failles et d’erreurs ; ainsi le holisme peut-il permettre une approche épistémologique permettant le critère de réfutabilité ? ; et le holisme ne risque t-il pas de céder à l’analogisme et la métaphore plutôt que de se baser sur des relations de causalité ? ; ces questions valent d’être posées car l’article Holisme est liée à l’article Mécanique quantique dans Wikipedia… La page sur le Holisme raconte même que le concept de holisme est très polémique depuis sa création, à travers une utilisation idéologique : le terme « holitisque » est abondamment utilisé par les milieux antisciences, les mouvements ésotériques et les groupes sectaires).
  17. Ontologie (philosophie)   (la métaphysique n’a aucun rapport avec les théories scientifiques comme la physique quantique).
  18. Pierre Teilhard de Chardin (qui fut un philosophe, théologien et paléontologue français ; il avait une conception spiritualiste du cosmos ; il a récupéré des sciences hors de leur contexte comme la théorie de l’évolution pour inventer le concept de point Oméga qui serait le but ultime de l’évolution à travers les concepts de noosphère et de Christ cosmique, mais la théorie de l’évolution n’a aucun déterminisme car chaque étape évolutive des espèces est imprévisible ; il s’agit d’un cas criant d’amalgame idéologique entre la science et la religion).
  19. Paul Feyerabend (philosophe connu pour son déni de la méthode scientifique, sa position était profondément incompatible avec le rationalisme et les critères admis de la scientificité, sa position radicale consistait en l’absence de méthode au profit d’un relativisme philosophique… ; sa proche conception de la science se résume à admettre que «tout est bon» ; si sa philosophie était appliquée uniformément dans le monde, cela ferait pleurer de joie les prophètes des pseudo-sciences…).
  20. Hydrino (particule hypothétique désignant l’atome d’hydrogène dans un nouvel état selon lequel l’électron aurait une orbitale plus proche du proton ; ce concept a voulu servir à expliquer et justifier la fumeuse fusion froide ; l’hypothèse de l’hydrino est en contradiction avec les lois de la physique quantique…)
  21. Théorie de Heim  (pseudo-science très habilement sophistiquée pour mieux tromper les gens ; la théorie de Heim n’a jamais été publiée dans des revues scientifiques à comité de lecture, et sa diffusion en dehors du circuit académique est à prendre avec des pincettes… Dans le Wikipedia anglais, la théorie de Heim est classée dans la catégorie «Fringe physics», terme équivalent à «pseudo-science»).
  22. Pré Big Bang (ce modèle cosmologique peut-il permettre, lorsqu’une hypothèse est en soi fausse, d’invalider cette hypothèse au moyen d’une observation concevable ? ; il n’y a plus qu’à attendre les résultats du satellite Planck… Je suis franchement sceptique, sachant qu’un «pré Big Bang» avant même le commencement de l’espace-temps n’a pas de sens en physique…).

Sous réserve de dizaines d’autres cas…

  • Test statistique : sur 3250 pages connexes au mot « quantique » dans le Wikipedia francophone, il existerait environ 47 pages maximum a priori suspectes qui concernent des biographies de personnes, et environ 285 pages maximum a priori suspectes concernant des articles impersonnels désignant un concept ou une organisation.
  • Bilan statistique : 8 à 9% maximum des articles du Wikipedia francophone relatifs à la physique quantique seraient en fait une promotion du mysticisme quantique pseudo-scientifique ou une interprétation incorrecte de la physique quantique en reliant celle-ci à tort à des concepts philosophiques éloignés selon des degrés divers de ce qu’on attend d’une théorie scientifique ; et parmi ces articles, 16 à 17% maximum d’entre eux seraient des biographies de personnes contemporaines (ou de précurseurs) mêlées au mysticisme. En résumé, sur 100 articles qui parlent de la physique quantique, 8 à 9 au pire sont potentiellement suspects, et parmi ceux-ci on y trouve 1 à 2 articles biographiques d’un individu ayant une conception hors-sujet de la théorie quantique (un philosophe, un pseudo-scientifique ou un gourou).

© 2012 John Philip C. Manson