Dash a écrit : 23 sept. 2020, 16:18Faudrait refaire de multiples occurrences d'expériences avec différentes matrices pour s'assurer que le rapport est toujours sensiblement similaire, non?
Bien sûr qu'on pourrait creuser pour s'assurer que M n'a réellement pas d'effet sur S. On ne pourra toutefois jamais démontrer hors de tout doute (déraisonnable
TM Denis) que c'est le cas, parce qu'il y aura toujours une part d'inconnues. Toutefois, quand les données restent négatives quant à un effet, il est plus raisonnable de se dire que ça ne vaut pas la peine de continuer à chercher dans cette voie: même si M a un effet, il est tellement faible qu'il vaut mieux développer un autre produit, qui montrera des résultats plus clairs.
Si on veut s'obstiner à montrer que M marche, on pourrait changer la méthodologie, voir s'il affecte d'autres symptômes, etc. Cette approche peut conduire à une fuite en avant comme chez les homéopathes et autres défenseurs de "thérapies" dont l'efficacité est assez illusoire.
Mais on quitte le problème posé par le sondage. Celui-ci vise à voir si l'évaluateur pense que les résultats proposés indiquent un effet ou pas*. Il vise à voir comment l'évaluateur aborde la question des liens causaux (s'il pense que M cause l'absence de S / cause S). Sur le forum, les intervenants sont sensibles aux illusions/apparences de causalité et, en plus, prennent le temps de réfléchir dans le contexte implacable de la Loi du Forum***. Mais ça n'est pas une tendance générale dans la population. Et, évidemment, dans des conditions réelles ou juste plus réalistes, les apparences/illusions de causalité peuvent être beaucoup plus difficiles à dénicher: ça peut conduire à
prêter de l'efficacité à un traitement qui n'en a pas.
D'après les principaux auteurs de l'étude à laquelle je viens de référer (Blanco et Matute), les principaux facteurs de confusion (pas les seuls) sont ceux que j'ai donnés dans
ce message: si on ne prend pas le temps de bien analyser les choses (ou si on ne sait pas le faire), on tend à comparer les "fréquence de cause" (on met l'emphase sur l'effet quand M est présent ou pas) ou à comparer les "fréquences d'effet" (on met l'emphase sur ce qui se passe quand M est présent). Négliger une des données (pas d'effet quand M absent dans l'exemple du sondage), biaise l'analyse en la rendant incomplète et cela peut entrainer à une illusion de causalité. Ces auteurs disent qu'on peut entrainer une distorsion des résultats (i.e., semblable à un biais cognitif) dans un modèle informatique qui prend en compte ces biais de "fréquences". Je serais bien incapable d'expliquer le modèle mais leurs résultats indiquent que si on prend considération ces biais, le modèle tend à faire des associations causales qu'il ne fait pas quand on ne les prend pas en considération (Blanco & Matute (2019)
4e chapitre de ce bouquin). Cela supporte l'idée d'un biais cognitif assez puissant:
"
Humans like to think that they are almost perfect reasoners, but they fall prey to the same errors (causal illusions) that affect almost any other learning system, be it natural or artificial." (p.63)
Pour en revenir au problème simplifié du sondage: àma, on peut
affirmer que 1 et 2 (qui prétendent que les résultats supportent un effet de M) et 5 (mentalité conspirozozoe) ne sont pas justes. Par contre, les 3 et 4 peuvent être défendues. Et il est intéressant de voir comment la réponse est justifiée selon les approches et connaissances de ceux qui répondent (de ce point de vue spin-up est allé beaucoup plus loin que d'autres dans son analyse).
Jean-François
* Et ces résultats n'indiquent rien sur l'étude elle-même: ni le médicament, ni le symptôme, ni la méthodologie, ni l'état d'avancement de l'étude, ni ce qu'en pense le(s) chercheur(s)**, etc.
** Le professeur Ra
pult nous avise que "de tels résultats indiquent que
l'hydroxychloroquine + azithromycine M marche!"
*** Comme celle de la jungle, mais en pire...
'videmment.