Tu dis :
* parenthèse ajoutée par Pancrace.Il y a (risque de)* confusion entre "possible" en théorie des probabilités et "possible" en théorie des ensembles.
C’est vrai. Ce qu’on entend généralement par « possible » est grosso-modo une construction réalisable à partir d’une théorie donnée. Donc effectivement ça dépend de la théorie dans laquelle on évolue. Par exemple construire un triangle avec somme des angles différente de 180° est « impossible » en géométrie euclidienne, mais « possible » en géométrie elliptique ou hyperbolique (bien entendu tu sais tout ça, je détaille si jamais on a des lecteurs éventuellement moins affutés !).
Dans ma réponse "oui" à la question plus haut, je me suis placé (sans le dire il est vrai) en théorie des ensembles, parce que pour prouver la « possibilité » évoquée, on a besoin d’un modèle mathématique simple, strictement équivalent. En théorie des probabilités, tu as raison il me semble de dire qu’un tel modèle n’existe pas car il est impossible de construire une fonction probabiliste qui mime l’assertion. Mais en théorie des ensembles c’est ultra facile, avec simplement une fonction constante de N dans un ensemble à 2 éléments, qui est une traduction théorique fidèle de l’expérience.
De plus, se placer dans ce cadre ensembliste n’est pas outrageux en ce qui concerne le contexte. Par exemple lorsqu’on étudie les suites aléatoires (et notamment la compression de l’information que tu as déjà évoquée sur ce fil), la notion de suite utilisée est celle ensembliste, bien qu’il s’agisse plus d’un problème qui concerne les probas. En particulier, on peut voir « une pièce non truquée retombant une infinité de fois en suivant sur pile » comme une brave suite (non aléatoire bien sûr !) qui vaut toujours p à chaque cran. C’est donc quelque chose de « possible » en théorie des ensembles puisqu’on vient de la formaliser.
Concernant la suite de ton message, je crains de ne pas être compétent pour une discussion de haute volée sur les finesses entre variables aléatoires discrètes et continues. Je sais juste qu’il y a des difficultés avec notamment la mesure de Lebesgue et les tribus boréliennes, mais sans avoir eu l’occasion de vraiment creuser (j’ai arrêté les probas à la fin du cursus obligatoire de maths, quatrième année post bac en France).
Tiens je profite finalement de ce post un peu technique pour donner la solution de la question 2 : en moyenne on doit lancer combien de fois une pièce équilibrée pour voir apparaître le premier pile ?
Ca sera 1 fois avec probabilité 1/2 (cas où on a P d’entrée de jeu). Puis 2 fois avec la configuration FP, de probabilité 1/4. Puis 3 fois avec la configuration FFP, de probabilité 1/8. En continuant ainsi ça sera N fois avec une configuration FFF…FP de probabilité \(\frac 1 {2^N}\), pour chaque N entier positif. Donc la moyenne (l’espérance de la variable aléatoire discrète associée), est la somme infinie : \(\sum_{N=1}^\infty \frac N {2^N}\). Pour la calculer, le plus simple est de passer « au continu » par la formule bien connue \(\sum_{N=0}^\infty x^N = \frac 1 {1-x}\), valable lorsque la valeur absolue de x réel est strictement plus petite que 1. On dérive ensuite de chaque côté (en justifiant qu'à gauche on peut intervertir dérivation et somme infinie), on multiple par x de chaque côté pour avoir la bonne puissance, puis finalement on pose x=1/2. Je passe les détails, la réponse à la question est 2.