Invité a écrit :A moins que tu ais trouvé une faille dans leur méthode. 8)
Leur "méthode", en gros, c'est: au petit bonheur la chance fouillons dans une masse phénoménale de données, il en sortira bien quelque chose. C'est une forme de paréidolie: ils ne fixent pas un écran de télé qui montre de la neige, ils fixent un blizzard de points.
Et, ils trouvent ce qui leur convient. Ce qui n'est pas étonnant vue la quantité massive de données qu'ils accumulent. En fait, leur résultats sont extrêmement sensibles aux critères - très subjectifs - de sélection des données à traiter, ce qui entraîne des problèmes de biais de sélection et d'interprétation. Ce problème est bien mis en évidence dans
cet article; voir aussi les résultats différents obtenus par Nelson et Radin concernant le même événement (
New Year, Y2K).
En terme de choix des données, il y a aussi les générateurs choisis. Ceux-ci sont disposés un peu partout dans le monde. Et, parfois, il arrive que des générateurs proches de l'événement ne donnent rien de significatif alors que des éloignés donnent quelque chose. Rien ne permet de comprendre pourquoi.
Enfin, à mon avis, quand ils trouvent quelque chose: ça ne sert à rien car il n'y a pas moyen d'aller plus loin. Comment comparer les résultats significatifs obtenus par un chercheur pour les
funérailles de PET (dont on comprend mal l'intérêt mondial) avec les résultats nettement moins significatifs pour la cérémonie des
Jeux d'Athènes obtenus par un autre? Que veut dire l'absence de significativité de l'étude sur
Katrina, comparée à l'étude montrant une "significativité inverse" à propos des
concerts Live 8 (un des auteurs, Nelson, est le même dans les deux études)? Cette apparente stérilité est, à mon avis, aussi mise en évidence dans leurs tentatives de "méditation de groupe" ("
Group Mind Meditation"), 4 essais qui donnent vraiment n'importe quoi (du significatif, du non significatif et de l'inversement significatif).
Jean-François