Les psychopathes ne bâilleraient pas

 

Ma remarque :

Pour faire une étude statistique crédible, appuyée par la significativité d’un résultat pour conforter une hypothèse, on doit se baser sur :

  • Une comparaison entre un échantillon de psychopathes par rapport à un échantillon témoin de population.
  • Une comparaison quantitative qui conforte ou qui réfute une hypothèse.

Mais tout ce que nous savons, c’est qu’il existe un échantillon de 135 personnes pour cette étude. Avec apparemment l’absence d’échantillon témoin. Et surtout l’absence de données quantitatives. Ici l’étude est complètement biaisée : elle s’exprime selon un résultat qualitatif et non quantitatif, on ne peut même pas établir si l’hypothèse des psychopathes qui ne bâilleraient pas est valide ou non puisqu’il n’y a pas de comparaison quantitative possible…

 

Ce qu’il aurait fallu faire pour réaliser l’étude :

  • Constituer un premier échantillon : l’échantillon témoin.
  • Constituer un second échantillon : un échantillon composé de personnes ayant été diagnostiquées médicalement comme psychopathes.
  • Combien de personnes par échantillon :   n =1.96²*x(1-x)/0.05² , où 1,96 désigne l’indice de confiance à 95% et où 0,05 désigne la marge d’erreur de 5%, et où p est la probabilité normale de l’événement (bâillement) dans l’échantillon témoin, et où p est comprise entre 0 et 1. La valeur de n est maximum lorsque p=0,5. Ainsi, pour que l’étude ne soit pas biaisée statistiquement, il faut prévoir que chaque échantillon soit composé d’au moins 384 personnes, mais pas 135.
  • Le calcul de la significativité d’un test n’est possible que si l’on connaît à la fois le taux de bâilleurs dans l’échantillon témoin (valeur inconnue) et le taux de bâilleurs parmi l’échantillon de psychopathes (valeur inconnue). Sans comparaison quantitative, on ne prouve rien.

 

John Philip C. Manson

Silence, ça pousse !

Cette émission a pour thème le jardinage, et Stéphane Marie (l’un des animateurs) est un jardinier habile, compétent et expérimenté.

Mais quelque chose ne va pas…

Environ une vingtaine de minutes après le commencement de l’émission, des invités dans l’émission font la promotion de la florithérapie, et plus particulièrement le domaine des fleurs de Bach. Dans le contexte de l’émission, tout cela est présenté et expliqué par une pharmacienne, dans un environnement de laboratoire qui laisse d’abord penser à un aspect scientifique. Mais cela n’est qu’une regrettable apparence…

Concrètement, les fleurs de Bach sont une médecine parallèle qui n’a aucun fondement scientifique, bien que son inventeur, Edward Bach, était un authentique médecin. La florithérapie présente des similitudes avec l’homéopathie. Et comme l’homéopathie, les examens systématiques des essais cliniques de remèdes à base de fleurs de Bach n’ont pas montré d’effet au-delà du placebo…

Les fleurs de Bach sont de la pseudoscience.

Grosso modo, le docteur Bach a décidé ad hoc que la personnalité et les états émotionnels sont des critères préférables à ceux que sont la maladie et ses symptômes. Les élixirs floraux ont la prétention de stimuler la vitalité et d’harmoniser la vie psychique, en agissant sur les états émotionnels. Mais les effets des fleurs ont été « étudiés », ou plutôt élaborés de façon suggestive par Bach. Aucun protocole scientifique objectif derrière tout cela…

Triste de constater que les marchands de perlimpimpin viennent jusqu’à s’incruster dans les émissions TV sérieuses… Par exemple, on reste médusé quand un docteur en pharmacie affirme que « le Vercors est un haut lieu énergétique »… Un quelconque rapport avec le New Age ? Ou alors la radiesthésie ? Peut-être pas, mais c’est inquiétant comme discours, comme si la spiritualité se substituait à la science tout en se revêtant, l’air innocent, d’une caution scientifique que les fleurs de Bach n’ont pas !

Il faut distinguer ce qui relève du marketing, du commerce, et ce qui relève de la science…

Rien n’empêche d’essayer les fleurs de Bach, à condition de suivre un protocole expérimental capable d’évaluer objectivement l’efficacité d’une telle thérapie.

John Philip C. Manson

 

Cosmologie : contradiction dans un modèle cosmologique fractal

  • Hier soir, je découvre cette page : http://www.apmep.fr/spip.php?page=message&id_forum=4592 dans laquelle un modèle cosmologique est décrit avec peu d’informations détaillés (comme des démonstrations et des preuves empiriques), mais j’ai porté une lecture attentive.

L’auteur du texte présente un modèle d’univers à géométrie fractale, et prétend que deux univers apparurent (l’un formé de matière et l’autre d’antimatière). Là je ne peux rien réfuter, parce que c’est simplement invérifiable factuellement.

Ensuite, l’auteur introduit deux grandeurs :

  • D : la dimension fractale de l’« éponge de Menger-Sierpinski ».
  • BT : la borne de « Tsirelson ».

L’auteur affirme que ces deux grandeurs ont une valeur très proches.

Mais ensuite, l’auteur déclare qu’il s’agit de diffuser des informations mais pas des démonstrations. C’est curieux comme remarque. Diffuser des infos comme des faits, ou comme de simples hypothèses ? Une démonstration c’est abstrait, c’est propre aux mathématiques via lesquelles on démontre si des propriétés mathématiques sont vraies ou fausses, mais une démonstration se limite exclusivement aux maths, où l’aspect abstrait se distingue nettement de la physique qui, elle, exige des preuves. En cosmologie comme dans les sciences expérimentales, on ne démontre pas comme on le fait dans les maths pures, mais on prouve directement ou indirectement avec des expériences ou avec des observations.

Ensuite, l’auteur relie les grandeurs D et BT avec la température cosmologique. Là ça commence à devenir concret et intéressant. L’auteur déclare que la grandeur D est constante. Il affirme aussi qu’une troisième grandeur, notée K, est une constante.

Or l’auteur relie ces grandeurs comme suit :

  • Tuo = K * D = K * BT

Avec Tuo = 2,7 kelvins, la température cosmologique. Mathématiquement, lorsqu’on multiplie une constante par une autre constante, le résultat est une constante. Ainsi, la température de l’univers serait constante d’après ce modèle.

Pour ainsi dire, l’auteur déclare péremptoirement qu’il n’y aura pas de mort thermique prévisible pour notre Univers. Par conséquent, l’on comprend qu’il suggère donc que l’univers n’a pas été chaud jadis et qu’il ne se refroidit pas. Une température supposée constante, ça ne ressemble t-il pas à une caractéristique d’un univers stationnaire et donc sans Big Bang ?

L’auteur lâche une phrase étrange : « L’ Univers doit-il se plier à nos modèles ou nos modèles à l’Univers ? « 

Ne voudrait-il pas remettre en question les principes fondamentaux de la scientificité qui fonctionnent plutôt bien depuis Karl Popper ? On n’a de connaissance qu’à travers des expériences et des observations, c’est la base de la méthode scientifique. On construit des modèles mathématiques pour construire une représentation approximative du réel, les modèles devant être le plus fidèles aux faits observés ou expérimentés. Mais un modèle n’est pas censé remplacer les faits… Un modèle est censé représenter le plus fidèlement possible les faits tels qu’ils sont.

Les faits ne mentent pas (quand on limite au maximum les biais cognitifs). Mais des modèles peuvent se tromper. C’est là qu’intervient le critère épistémologique de réfutabilité.

Ainsi, comme on l’a vu, l’auteur déclare que la température cosmologique est constante, donc toujours à 2,7 kelvins, soit environ -270,45°C.

Mais comment est-il possible que l’univers ait toujours une température constante, alors que l’on a observé une preuve comme celle de la nucléosynthèse primordiale ? En effet, le modèle à température constante est incapable d’expliquer l’abondance d’isotopes datant du début de l’univers, isotopes ayant été produits par la fusion nucléaire de noyaux atomiques initialement plus légers.

Il y a 7,2 milliards d’années (donc 6,6 milliards d’années après le Big Bang), la température de l’univers était de 5,1 kelvins, au lieux des 2,7 kelvins actuels. On a la preuve que la température cosmologique n’est pas constante, les faits contredisent le modèle.

Les faits ont prévalence sur les hypothèses. On ne peux guère présenter des hypothèses comme des vérités en dépit de la contradiction due aux faits contre ces hypothèses. Lorsqu’une hypothèse est réfutée par une preuve empirique, l’hypothèse doit être modifiée ou abandonnée.

L’auteur a déclaré en conclusion que « nous pensons que cela pourrait représenter un grand chambardement dans nos croyances ». Je pense plutôt que c’est le modèle ici qui connaît un chambardement, car les faits semblent le réfuter. La théorie du Big Bang n’est pas un ensemble de croyances, le Big Bang est une théorie scientifique qui s’appuie sur plusieurs preuves.

Le modèle de l’auteur, basé sur un univers froid à température constante :

  • n’est pas capable d’expliquer l’abondance universelle de l’hélium, du lithium et du béryllium (qui sont des éléments produits lors de la nucléosynthèse primordiale).
  • n’a peut-être pas pensé que la formation des galaxies se passerait différemment dans un univers à température constante, par rapport à la formation de galaxies dans un univers jadis très chaud et dont la température décroît.
  • le modèle explique t-il le red-shift (le décalage vers le rouge, dû à l’effet Doppler) ?
  • En décembre 2000, Raghunathan Srianand, Patrick Petitjean et Cédric Ledoux ont mesuré la température du fond diffus cosmologique baignant un nuage interstellaire dont ils ont observé l’absorption du rayonnement émis par le quasar d’arrière plan PKS 1232+0815, situé à un décalage vers le rouge de 2,57. L’étude du spectre d’absorption permet de déduire la composition chimique du nuage, mais aussi sa température si l’on peut détecter les raies correspondant à des transitions entre différents niveaux excités de divers atomes ou ions présents dans le nuage (dans le cas présent, du carbone neutre). La principale difficulté dans une telle analyse est d’arriver à séparer les différents processus physiques pouvant peupler les niveaux excités des atomes. Les propriétés chimiques de ce nuage, ajoutées à la très haute résolution spectrale de l’instrument utilisé (le spectrographe UVES du Very Large Telescope) ont pour la première fois permis d’isoler la température du rayonnement de fond. Srianand, Petitjean et Ledoux ont trouvé une température du fond diffus cosmologique comprise entre 6 et 14 kelvins, en accord avec la prédiction du Big Bang, de 9,1 K. La température mesurée, affectée d’une marge d’incertitude de 8 degrés (de 6 à 14 K), est explicitement supérieure aux 2,7 kelvins actuels (les 2,7 K sont en-dessous de la valeur minimale de la marge thermique observée). L’univers était plus chaud autrefois par rapport à maintenant. Sa température n’est pas constante.

 

  • « On reconnaît la qualité d’une expérience scientifique au nombre de théories qu’elle fait tomber ». 
  • « Une théorie est scientifique si et seulement si elle est susceptible d’être réfutée ; elle n’est pas vraie, mais tout au plus admise provisoirement. » (Karl Popper)

feynman3

 

J’ai trouvé des remarques dans un blog du Nouvel Observateur : http://olivier-4.blogs.nouvelobs.com/archive/2012/01/14/le-pouvoir-de-l-imaginaire-149-un-nouveau-type-de-big-bang-m.html   dont voici l’encadré ci-dessous :

NObs

 

Dans un forum, on trouve d’autres données indiquées par l’auteur : http://astro-forum.forumactif.com/t1162-le-big-bang-serait-il-faux

En substance, je cite :

  • « Notez bien que ces 2 Univers ne vivent pas l’un à coté de l’autre mais seraient très éloignés et tourneraient autour de leur barycentre commun situé à une distance de 10 puissance 67 mètres. »
  • « une expansion qui aurait durée 18 milliards d’années mais une expansion qui se serait faite par sauts quantifiés »
  • « Après ces 18 milliards d’années d’expansion l’Univers ARRÊTE son expansion. Sa température est celle qu’il a aujourd’hui car il ne se dilate plus. »

L’auteur affirme 10 puissance 67 mètres tandis que l’on sait que l’univers observable a une grandeur de l’ordre de 10 puissance 26 mètres. Auquel cas son hypothèse de deux univers est invérifiable…

L’auteur stipule une expansion quantique (par sauts), tandis que la physique quantique ne s’applique qu’à des échelles subatomiques, et ne s’applique pas aux grandes distances à l’échelle macroscopique où c’est la théorie de la relativité qui est concernée…

L’auteur déclare une expansion actuellement nulle, alors que les faits prouvent que l’expansion est accélérée, cela fut découvert en 1998 et confirmé en 2003, et cela a valu aux découvreurs le prix Nobel de physique 2011.

Et en voici les références :

Bilan :

L’auteur présente un modèle théorique au cours des années 2010 à travers des blogs et des forums. Mais l’on sait depuis janvier 2013, date à laquelle l’info est médiatisée, que l’univers avait une température de 5,1 K il y a 7,2 milliards d’années ; et l’on sait depuis 1998 (et confirmé en 2003) que l’univers est en expansion accélérée.

Ces deux contre-exemples réfutent le modèle théorique de l’auteur. L’univers n’est pas stationnaire, ni à température constante, c’est un fait.

 

  • Pour terminer ce présent article, je me permets de glisser une remarque. L’auteur dont le modèle est contesté a inversé ce que l’on attend de la méthode scientifique basée sur l’épistémologie de Karl Popper : il a cherché à trouver des confirmations empiriques ou observationnelles de sa théorie, au lieu de chercher à contredire sa théorie en trouvant des contre-exemples pouvant l’invalider. La science fonctionne par réfutation, pas par confirmation.

John Philip C. Manson

 

Comment produire une conclusion fallacieuse avec une étude biaisée

Comment produire une conclusion fallacieuse avec une étude biaisée ?

Le présent article va montrer comment on peut se planter quand un échantillon statistique est faible.

On va se baser sur un nombre limité de lancers de dé (non pipés) réalisés indépendamment par des individus.

Si une personne réalise un assez grand nombre de lancers de dés (des milliers ou des millions de lancers), elle donnera la conclusion correcte que le chiffre 6 a une probabilité de 1 sur 6 de se produire lors d’un lancer d’un dé.

Mais supposons que nous limitons à 31 seulement, le nombre de lancers par personne. Que se passe t-il au niveau des conclusions données indépendamment par chacune des personnes ? Les pourcentages suivants peuvent être obtenus expérimentalement (par lancers de dé), ou via la loi binomiale.

  • Un nombre majoritaire de personnes (19% du groupe) affirmera la conclusion qu’il se produit 5 fois le chiffre 6 avec 31 lancers de dé, soit une probabilité de 5 / 31 = 0,1613, ce qui se rapproche sensiblement de la probabilité mathématiquement correcte de 1 / 6 = 0,16666.
  • Mais un pourcentage non négligeable de personnes affirmeront des conclusions divergentes en déclarant une probabilité différente et donc fallacieuse. Voir ci-dessous :
  • 0,35% du groupe de personnes affirmeront que le chiffre 6 n’apparaît pas du tout avec 31 lancers de dé, soit une probabilité nulle !
  • 2% du groupe de personnes affirmeront que le chiffre 6 apparaît 1 fois seulement avec 31 lancers de dé, soit une probabilité de 1 sur 31.
  • 6,5% du groupe de personnes affirmeront que le chiffre 6 apparaît 2 fois avec 31 lancers de dé, soit une probabilité de 2 sur 31.
  • 12,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 3 fois avec 31 lancers de dé, soit une probabilité de 3 sur 31.
  • 17,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 4 fois avec 31 lancers de dé, soit une probabilité de 4 sur 31.
  • On a vu que 19% du groupe de personnes affirmeront que le chiffre 6 apparaît 5 fois avec 31 lancers de dé, soit une probabilité de 5 sur 31, qui équivaut grosso-modo à 1 sur 6. Seul cas où la conclusion est mathématiquement correcte !
  • 17% du groupe de personnes affirmeront que le chiffre 6 apparaît 6 fois avec 31 lancers de dé, soit une probabilité de 6 sur 31.
  • 12% du groupe de personnes affirmeront que le chiffre 6 apparaît 7 fois avec 31 lancers de dé, soit une probabilité de 7 sur 31.
  • 7% du groupe de personnes affirmeront que le chiffre 6 apparaît 8 fois avec 31 lancers de dé, soit une probabilité de 8 sur 31.
  • 4% du groupe de personnes affirmeront que le chiffre 6 apparaît 9 fois avec 31 lancers de dé, soit une probabilité de 9 sur 31.
  • 1,6% du groupe de personnes affirmeront que le chiffre 6 apparaît 10 fois avec 31 lancers de dé, soit une probabilité de 10 sur 31, soit environ 1 chance sur 3, soit le double de la probabilité réelle !

En résumé :

  • 19% des personnes donnent une conclusion pertinente d’après un résultat qui se base sur une probabilité correcte malgré un échantillon trop faible (car 31 lancers de dé c’est insuffisant, il faut des milliers ou des millions de lancers de dé pour établir une conclusion fiable).
  • 38,7% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique inférieure à 1/6, voire même une probabilité nulle…
  • 42,3% des personnes donnent une conclusion fallacieuse en se basant sur une probabilité empirique supérieure à 1/6, voire même au moins le double de la probabilité réelle.

 

Il est donc très clair qu’avec un échantillon biaisé (car un nombre trop faible de lancers de dé), il est fort probable de produire une conclusion fallacieuse.

Il est alors légitime de douter complètement de l’étude qui est critiquée dans cet article ci-joint :  https://jpcmanson.wordpress.com/2015/06/27/limposture-des-biais-statistiques/   C’est à cause d’études bâclées que l’on conclut que les personnes indécises ont des tendances psychotiques et que les gauchers sont des malades mentaux… C’est une honte de publier des choses fallacieuses, et personne ne semble trouver utile et urgent de porter une critique sur ces pratiques intellectuellement malhonnêtes.

 

John Philip C. Manson

 

Expansion terrestre

  • L’expansion terrestre est une ancienne théorie géologique, désormais obsolète, selon laquelle les déplacements des continents et l’évolution de la lithosphère sont la conséquence d’une augmentation importante et accélérée de la surface et donc du volume de la Terre. La plus récente estimation de l’augmentation de surface (fondée sur la quantification et la datation des lithosphères océaniques et continentales et certaines suppositions) est un quadruplement depuis 250 millions d’années, soit un doublement du rayon terrestre durant cette période, pour une croissance actuelle d’environ 20 mm/an.

Oui cette théorie est tombée en  désuétude, heureusement. La dérive des continents avec les mouvements de convexion du manteau supérieur correspond sensiblement mieux à la réalité.

La théorie de l »expansion terrestre, si on l’évalue par les maths, ne peut pas être cohérente, son abandon est une évidence.

 

Si la Terre se dilate mais conserve une masse constante, la densité terrestre décroît exponentiellement et rapidement :

  • Masse volumique : rho(t) = 3 m e^(-3t)/ (4 pi R0^3)
  • Densité par rapport à l’eau :    d(t) = 5,52 * e^(-3t)

L’accélération de la pesanteur aussi :

  • g = 9,81 * e^(-2t)

Arguments contre ce modèle :

  • Rien ne peut expliquer une dilatation sans augmentation de masse, car cela implique que la Terre se remplirait de vide.
  • Le modèle implique une densité élevée inexpliquée dans le passé, et une densité faible dans le futur, inexpliquée non plus.
  • L’accélération de la pesanteur aurait été élevée dans le passé, impliquant des animaux préhistoriques de petite taille pour résister à leur propre poids. Alors qu’en réalité, les dinosaures avaient une tendance au gigantisme.
  • La diminution de l’accélération de la pesanteur dans le futur implique que les objets à la surface de la Terre soit un jour projetés dans l’espace du fait de la force centrifuge due à la rotation terrestre.
  • La vitesse de libération terrestre décroît exponentiellement :  v = v0 * e^(-t) = 11200 * e^(-t). Ce qui implique une vitesse de libération élevée dans le passé, impliquant une atmosphère dense.

Lorsque les arguments contre un modèle sont en quantité supérieure par rapport aux arguments favorables, il est évident que le modèle doit être invalidé.

 

Si la Terre se dilate mais conserve une densité constante :

  • Masse terrestre :  m(t) = m0 * e^(3t)
  • Densité :    d(t) = constante
  • g(t) = 9,81 * e^t

Arguments contre ce modèle :

  • La masse terrestre croît exponentiellement de plus en plus rapidement. Ce qui est contredit par la chute de moins en moins fréquente de poussières et météorites sur Terre en fonction du temps. L’apport de masse extra-atmosphérique vers la Terre diminue avec le temps.
  • L’accélération de la pesanteur croît exponentiellement avec le temps. Si cela rend a priori possible le gigantisme animal dans le passé, l’accélération de la pesanteur deviendrait très élevée dans le futur.
  • La vitesse de libération terrestre augmente exponentiellement :   v = v0 * e^(t/2). Ce qui implique une vitesse de libération faible dans le passé, ce qui implique une atmosphère terrestre primitive qui était ténue ou absente, ce qui est contradictoire avec la réalité.
  • Si la masse augmente, les corps célestes s’attirent mutuellement plus fort, et donc la lune finit par entrer en collision avec la Terre, et les planètes (dont la Terre) finiront par spiraler vers le soleil. Dans le modèle à masse constante, les orbites restent stables, mais comment expliquer une dilatation sans augmentation de masse donc avec du vide ?

 

Les deux modèles ci-dessus se base sur un doublement du rayon terrestre lors des derniers 250 millions d’années, sachant que ce rayon tendait vers zéro il y a plus de 4,6 milliards d’années. Le temps t est exprimé en années via les équations ci-dessus, avec t = 0 qui désigne l’instant présent, et t< 0 désignant le passé, et t > 0 désignant le futur.

Si le rayon terrestre croît de 20 millimètres par an à un instant donné, alors environ 13 années plus tard, cet accroissement atteind environ 10 fois plus l’augmentation précédente (20 cm environ par an au lieu de 20 millimètres par an).

Si la constante de gravitation (notée G) variait dans le temps, afin de sauver la théorie de l’expansion terrestre, cela entrerait en contradiction avec la théorie de la relativité et les équations de Friedmann, de quoi entrer en contradiction avec les théories de la cosmologie (dont le modèle du Big Bang). Si dans la théorie de l’expansion terrestre l’on veut que l’accélération de la pesanteur soit constante, alors dans le modèle d’expansion terrestre à masse terrestre constante, on a G = 6,67*10^-11 * e^(2t) ; et dans le modèle à masse variable, on a G = G0 * e^(-t). Ce qui contredit les mesures de G effectuées en 1994 et 2010 : https://fr.wikipedia.org/wiki/Constante_gravitationnelle#Nouvelles_valeurs_obtenues

 

C’est une évidence que la théorie de l’expansion terrestre n’est pas du tout crédible et devait être définitivement abandonnée.

John Philip C. Manson

 

 

 

Lorsque le mot « quantique » est mis à toutes les sauces…

Avec l’outil Google Alertes, j’ai mis le mot « quantique » sur écoute et je reçois de temps en temps un email de notification si ce mot apparaît dans un nouvel article de Wikipedia.

Ainsi, aujourd’hui je constate la suppression (totalement justifiée) de cet article inédit : http://fr.wikipedia.org/wiki/L%27amour_quantique

L’amour quantique ? C’est quoi ce nouveau délire ?

Il semble que certains confondent Wikipedia avec un bac à sable pour y écrire une forme de poésie dénuée de signification.

Il est toujours utile de faire ce rappel :

  • La physique quantique n’est ni une médecine, ni une psychothérapie, ni une spiritualité, ni une religion, ni un quelconque mysticisme, ni n’a de quelconque rapport avec des critères subjectifs, intuitifs ou émotionnels qui impliquent la conscience ou l’être humain. 
  • La théorie quantique est une théorie scientifique de la physique. Elle décrit un monde paradoxal, mais elle ne prétend pas décrire un monde mystique. La physique quantique (également connue sous le nom de mécanique quantique) concerne les technologies (photovoltaïque, lasers…) et la recherche scientifique (chimie, informatique, ordinateurs quantiques, cryptologie…). La physique quantique est l’étude et la description du mouvement des particules à l’échelle subatomique, une théorie scientifique sur la discontinuité de la matière. La physique quantique (et les autres théories scientifiques) n’a donc absolument rien à voir avec les interprétations saugrenues propres au New Age, aux religieux, aux poètes…

 

 

© 2015 John Philip C. Manson

Les extraterrestres auraient la taille d’ours polaires ?

Je cite : « S’ils existent, les extraterrestres ont probablement la taille d’un ours polaire, affirme un chercheur ».

Rappel : en science, on ne se contente pas de spéculations, il faut toujours des faits

Là, il n’y a rien de concret. Cela ne dépasse pas le stade de la science-fiction.