Suivi

Deux moyennes et trois variances


Re: Pour Denis : Variance et Co -- Évariste
Posté par Denis , Jul 08,2002,01:01 Index  Forum

Salut Évariate

Dans quelle galère me suis-je embarqué!

Pour la moyenne (probabiliste mu ou statistique xbarre), ça a l'air d'aller. C'est pour la variance, que ça se complique: il y en 3 (probabiliste sigma², statistique avec n et statistique avec n-1 sigma-chapeau²). Dans le cas pratique d'un échantillon tiré d'une population (finie), il faut aussi distinguer les moyenne-variance de l'échantillon des moyenne-variance de la population. Précisons aussi que les notations ne sont pas (encore)pleinement standardisées et que plusieurs auteurs permutent les notations s² et sigma-chapeau², ce qui ajoute à la confusion.

Essayons de tirer ça au clair.

Disons d'abord qu'il n'y a pas à grimper dans les rideaux. On a bien deux JOURS, le jour solaire moyen de 24h et le jour sidéral de 23h 56m 4s. On a aussi trois années: l'année sidérale de 365j 6h 9m10s, l'année tropique de 365j 5h 48m 46s et l'année anomalistique de 365j 6h 13m 53s. Qu'il y ait 2 moyennes et 3 variances n'est pas, en soi, une tragédie. ;-)

D'abord l'aspect probabiliste (discret)

Considérons une variable aléatoire X dont les valeurs possibles sont x1, x2, x3,... avec, respectivement, des probabilités p1, p2, p3,...

L'espérance mathématique de X (ou moyenne théorique de X) s'obtient, comme tu sais, en calculant

E(X) = mu = Somme(xi*pi)

Plus généralement, si g est une fonction quelconque,

E(g(X)) = Somme(g(xi)*pi).

La variance de X est

Var(X) = sigma² = E((X-mu)²) = E(X²)-(E(X)²)= E(X²)-mu².

La variance est donc l'espérance du carré moins le carré de la moyenne (de X).

Par exemple, si X est le nombre de points donnés par un dé, on a
mu = 3,5 et sigma² = 35/12.

Ces notions s'appliquent aussi aux v.a. continues. Il suffit de remplacer la fonction de probabilité p(x) par la fonction de densité f(x) et remplacer les sommes par des intégrales.

Je suis certain que, jusqu'ici, je ne t'ai rien appris et que tu as hâte que j'embraye. ;-)

Ensuite l'aspect statistique

Là, on part d'un échantillon X1, X2, ..., Xn.

Il y a deux cas.

Cas 1) Ces Xi peuvent être des variables aléatoires indépendantes et de même loi. On veut alors habituellement "estimer" (i.e. évaluer numériquement) les paramètres mu et sigma² de cette loi.

Dans la plupart des cas (pas toujours), la moyenne échantillonnale Xbarre est le meilleur (le plus précis) estimateur de la moyenne théorique mu et la variance échantillonnale sigma-chapeau² est le meilleur estimateur de la variance théorique sigma². Pour être plus précis, il faudrait définir le mot "meilleur". Il y a plusieurs critères, dont "être sans biais" et "avoir une variance minimale", mais il y en a d'autres. Xbarre et sigma-chapeau² sont toujours sans biais pour mu et sigma² (respectivement). Comme tu le sais, s² n'est pas sans biais pour sigma² (il "vise" (n-1)/n*sigma² plutôt que sigma²).

Remarque 1: Si le critère de qualité de l'estimateur est de minimiser E(erreur²), alors, dans le cas de la loi normale, le meilleur estimateur de sigma² est
Somme((Xi-Xbarre)²)/(n+1). [Oui, division par n+1, pas par n, ni par n-1].

Remarque 2: Même pour estimer la moyenne théorique mu, la moyenne échantillonnale Xbarre (qui est toujours sans biais) n'est pas toujours le meilleur choix. Ça dépend de la loi de X. Par exemple, si les Xi sont de loi "double exponentielle", la Médiane des Xi est plus précise que la moyenne Xbarre pour estimer la moyenne théorique mu.

Cas 2) Ces Xi peuvent être un échantillon tiré d'une population finie, de taille N. On veut alors habituellement estimer la moyenne et la variance (de X) pour la population (en utilisant les données de l'échantillon).

La moyenne de X pour l'échantillon est toujours un estimateur sans biais de la moyenne de X pour la population.

Mais, si on veut que la variance de X pour l'échantillon soit un estimateur sans biais de la variance de X pour la population, il faut les définir en divisant les sommes des carrés des écarts par n-1 (pour l'échantillon) et par N-1 (pour la population). Si on divise par n (ou par N), on s'encombre de biais et ça manque d'élégance (entre autres inconvénients). ;-)

Conclusion (si tant est qu'on puisse conclure quoi que ce soit ;-))
Les deux variances (via des divisions par n ou par n-1) ont toutes les deux des avantages et des inconvénients. On ne peut avoir à la fois le beurre et l'argent du beurre.

Les principaux avantages de la variance où l'on divise par n sont la simplicité de la formule (s² = (moyenne des carrés)-(carré de la moyenne)) et le fait que cette formule soit l'analogue direct de celle qui définit la variance probabiliste sigma² (dans le cas où les valeurs possibles sont équiprobables, avec tous les pi égaux).

Le principal avantage de la variance où l'on divise par n-1 est de corriger automatiquement les biais et de mener, par la suite, à des formules plus simples (quand on veut estimer par intervalle de confiance, par exemple).

Bon. Disons que ça va faire pou'l'moment. Si c'est pas clair, tu le dis, j'essaierai de voir si je peux mettre une plus grosse ampoule. ;-)

Denis

P.S. Moi aussi je donne à peu près 95% à mon machin. On est donc d'accord là-dessus.


Suivi