Par "surprenant", j'entendais plus précisément "avec une différence statistiquement significative".
Si on compare les groupe témoins par rapports aux résultats de vos différentes études :
proportion attendue : 31,3% | Effectif : 10 | Observé : 3 | Valeur de p : ~100% |
Non significatif
proportion attendue : 45% | Effectif : 10 | Observé : 3 | Valeur de p : 36,8% |
Non significatif
proportion attendue : 71% | Effectif : 10 | Observé : 3 | Valeur de p : 0,9% |
Significatif
proportion attendue : 76% | Effectif : 10 | Observé : 3 | Valeur de p : 0,3% |
Significatif
proportion attendue : 80% | Effectif : 10 | Observé : 3 | Valeur de p : 0,1% |
Significatif
proportion attendue : 81% | Effectif : 10 | Observé : 3 | Valeur de p : 0,1% |
Significatif
Donc, oui, si par rapport à une proportion de 41,5% de tumeur "normale" les résultats du groupe test ne sont pas surprenants, ils le sont par rapport aux proportions des autres études citées.
Il y a plus drôle : quand Séralini dis "50–80% of female animals had developed tumors in all treated groups", je suppose que cela signifie que dans un des groupes témoins, 50% des sujets (soit 5 rats) ont développés une ou des tumeurs, que dans un autre groupe, 80% des sujets (soient 8 rats) ont développés une ou des tumeurs, et que dans les 7 autres groupes, la proportion de sujets atteint de tumeurs étaient comprise entre 50% et 80%.
Il aurait d'ailleurs été sans doute trop rigoureux pour les auteurs de l'étude de donner, pour chaque variable mesurée, la valeur (proportion ou moyenne + écart type) obtenue dans chaque groupe, y compris le groupe témoin, et la valeur de p associée. Vous avez remarqué que l'article n'exprime pratiquement jamais les résultats d'un groupe test et celui du groupe témoin de la même façon ? Cela permet de faire de beaux effets réthoriques et d'éviter que l'on puisse facilement vérifier si les différences sont réelles.
Mais passons. Je reviens à mon groupe cible de 10 rates parmi lequel 5 ont développées des tumeurs. Si on fait la même comparaison avec les proportions attendues :
proportion attendue : 31,3% | Effectif : 10 | Observé : 5 | Valeur de p : 30,4% |
Non significatif
proportion attendue : 45% | Effectif : 10 | Observé : 5 | Valeur de p : ~100% |
Non significatif
proportion attendue : 71% | Effectif : 10 | Observé : 5 | Valeur de p : 29,9% |
Non significatif
proportion attendue : 76% | Effectif : 10 | Observé : 5 | Valeur de p : 13,1% |
Non significatif
proportion attendue : 80% | Effectif : 10 | Observé : 5 | Valeur de p : 3,3% |
Significatif
proportion attendue : 81% | Effectif : 10 | Observé : 5 | Valeur de p : 2,7% |
Significatif
Donc, par rapport à certaines de ces études, on trouve
un taux de tumeurs mammaires dans au moins un groupe cible étonnement faible !
Évidemment, il est toujours délicat de comparer les résultats d'expériences s'étant très certainement déroulées dans des conditions différentes, conditions pouvant avoir une influence sur le développement de tumeurs. C'est pour cela que l'on compare des groupes les groupes cibles à des groupes témoins placés exactement dans les mêmes conditions.
Et si on fait l'exercice pour les 2 groupes ayant 50% et 80% de taux de tumeurs, le résultat est éloquent
Effectif témoin : 10 | Observé témoin : 3 | Effectif cible : 10 | Observé cible : 5 | Valeur de p : 65% |
Non significatif
Effectif témoin : 10 | Observé témoin : 3 | Effectif cible : 10 | Observé cible : 8 | Valeur de p : 7% |
Non significatif
Donc, quand tu dis, Cartaphilus
Cartaphilus a écrit :Évidemment, ces mêmes références ôtent aux résultats de Séralini et collaborateurs toute signification.
je suis assez d'accord avec toi, mais il convient d'ajouter qu'ils n'avaient de toute façon aucune signification !
Cogite
Nota : dans mes calculs, je n'ai pas pris en compte les effectifs étudiées dans les études, que j'ai supposé suffisamment grand. Si ce n'est pas le cas, les résultats seraient moins significatifs.
Pour les échantillons statistiques, comme dans d'autres domaines, il n'y a pas que la taille qui compte.
Raisonner a l'instinct sur des problemes de probabilites, c'est le desastre assuré. (Spin Up)
Une graphe sans échelle, c'est bon pour la poubelle