Salut LoutredeMer, désolé de te répondre si tard.
Tu dis :
LoutredeMer a écrit :
- Un point que j'ai besoin d'éclaircir : Si p était égal à 0.1 (soit 100), soit une chance sur 100 que l'écart soit dû au hasard, l'étude serait donc plus fiable. C'est ca?
C'est exactement ça. p représente la probabilité que l'écart que tu constate, dans ton étude, soit due aux variations naturelles au sein de ta population. Plus p est petit, plus le résultat obtenu est fiable. On considère souvent qu'une différence est
statistiquement significative (càd non due au hasard lié à l’échantillonnage) si p<0,05. Mais c'est une valeur arbitraire, et beaucoup de scientifiques commencent à penser que ce seuil est trop élevé, et conduit à de trop nombreux résultats non reproductibles.
LoutredeMer a écrit :
- une méta analyse c'est la multiplication d'études pour faire diminuer un résultat hasardeux, du à la diversité des individualités dans le groupe. Ou bien cette meta-analyse peut elle se contenter de quelques études avec un p-value bien calculé?
Une méta-analyse doit prendre en compte toutes les études sur un sujet donné. Sinon, c'est comme si tu faisais une étude, mais que tu ne prenais pas en compte toutes les données dans le calcul du résultat. Pour bien faire :
- On définit d'abord le périmètre des études que l'on va étudier, et les critères méthodologiques qu'elles doivent respecter
- On fait une recherche exhaustive de toutes les études concernées
- On les filtre sur la base de leurs critères méthodologiques, sans regarder les résultats
- On compile les résultats des études retenus, et on calcule une valeur de p globale prenant en compte tous ces résultats.
Dans certains cas, des résultats statistiquement significatifs (p<0,05) de certaines études vont être annulés par les résultats non significatifs (ou carrément significatifs dans l'autre sens) d'autres études.
Dans d'autres cas, plusieurs résultats non significatifs, combinés ensemble, vont révélé un résultat significatif.
LoutredeMer a écrit :
J'allais te demander comment on calcule p, mais non finalement, je viens de voir des sigma et des différentielles, il y a longtemps que je ne sais plus ce que c'est.
La façon de calculer p dépend du type de données - par exemple on n'utilise pas les mêmes formules pour des variable discrètes (Guéri / pas guéri) que pour des variables continues (Taille du schtroumpf en cm). En théorie, je suis sensé savoir faire les calculs à la main. En pratique, je fais comme tout le monde, je rentre mes données dans mon logiciel de stat, et je lance le test. L'important est ;
- de savoir quel test appliquer à quel type de données
- et surtout, d'appliquer les test sur une hypothèse formulée a priori, avant le recueil de données.
Le dernier point est hyper important, on peux très très facilement trouver des résultats faussement significatifs si on ne le respecte pas. J'y reviendrais.
LoutredeMer a écrit :
237 cases received the test drug and 241 were assigned to placebo.
Pourquoi ne prend- t-on pas le meme nombre de testés dans les deux groupes? (=239)
[/quote]
Pas mieux à dire que Wooden Ali et Christian là dessus. Si ce n'est ajouter la fiabilité de l'étude est limitée par la taille du plus petit des 2 échantillons.
LoutredeMer a écrit :
Donc p servirait à deux choses :
1.Compenser la différence d'effectifs dans les groupes
Pas vraiment. Tu compenses la différence d'effectif tout simplement en calculant une variable qui ne dépend pas de l'effectif :
- taille moyenne des schtroumpfs du groupe
- pourcentage de personnes guéries au sein du groupe
- etc.
Les tailles des échantillons influent sur le calcul de p, mais les formules prennent très bien ça en compte.
LoutredeMer a écrit :
2. Compenser le petit nombre d'études, si j'ai bien compris Cogite (et maintenant je n'en suis plus aussi sure pff ).
p te permet de savoir à quelle point une étude est statistiquement significative, c'est à dire quel est le risque d'une "fausse différence".
Plus tu as des effectifs importants dans tes études, et plus tu as d'études, plus tu auras une valeur de p qui sera fiable.
Cogite