Phil_98 a écrit : 15 juin 2021, 00:38
thierry a écrit : 13 juin 2021, 19:01
...
Ps : assez d'accord avec toi ceci dit, il me semblait également que Phil parlait de générateur de nombres pseudo-aléatoires. J'imagine que pour régler la question il suffirait de lui demander ?
Salut,
C'est évident, j'utilise une fonction d'EXCEL pour produire un chiffre aléatoire. J'ai choisi une somme de six chiffre, variant entre 1 et 6, et chaque chiffre est produit par la fonction. La moyenne de cette somme est de 21 et les extrêmes sont 6 et 36, simplement parce que le résultat varie entre 6 et 36.
Si les résultats ne correspondent pas à une variable aléatoire, la loi normal ne sera pas respecté et on observera un biais.
https://fr.wikipedia.org/wiki/Loi_normale
Donc, l'étape suivante, pour prouver que ce chiffre est aléatoire, a été de vérifier que la loi normal est respecté et qu'il n'y a pas de biais. Pour vérifier le résultat, en utilisant le tabulateur, j'ai calculé les valeurs des milliers de fois et j'ai compilé les résultats.
Hello, désolé pour le délai de réponse.
Je ne comprends pas tout mais tu as dû utiliser le théorème central limite j'imagine (grosso modo, somme de variables aléatoires indépendantes - et donc espérance/moyenne - issues de la même loi de probabilité - loi uniforme dans ton cas je pense - tend vers une variable aléatoire gaussienne).
C'est peut-être un peu du chipotage de ma part mais à mon avis le fait que tes moyennes calculées se distribuent "de manière gaussienne" ne t'autorise pas vraiment à conclure.
J'y vois 2 raisons :
1/ la modélisation en v.a. (indépendantes, de même loi) fait partie des prémisses du théorème, si à la limite tes moyennes ne se comportaient pas comme les réalisations d'une v.a. gaussienne on pourrait peut-être plus facilement conclure.. encore que, il s'agirait de toute manière d'un "faisceau d'indices" (empirique) plutôt que d'une preuve formelle.
Bon, on y vient toujours j'ai l'impression...
Enculage de mouches ?
2/ un test de normalité (un peu plus "robuste" que la simple observation d'une courbe, enfin d'après ce qui se dit en tout cas..) te permettrait de tout manière de conclure moyennant un risque, c'est-à-dire avec un certain pourcentage d'erreur.
Pour éliminer l'effet du temps, j'ai fait les calculs en des temps différents.
Je ne comprends pas cet effet du temps ?
Pour t'avouer mes lacunes, je n'ai jamais vraiment compris où le temps intervenait dans ces questions déterminisme/LA. Je ne sais pas non plus comment des philosophes (ou scientifiques) ont traité le sujet. Je sais juste que ça me fait mal à la tête avant même d'avoir mis les pieds dedans.
Tout est mathématique, on peut appeler cela PSEUDO-HASARD, si vous voulez, ça ne fait rien,
Je suis peut-être plus relativiste que toi, mais c'est éventuellement dû à un manque de connaissances.
Également au fait que j'ai du mal à établir le sens de ton assertion. Tout est mathématique ? Comment ça ?
Cela ne plaiderait pas paradoxalement pour un déterminisme hard ?
1) le résultat qui est obtenu varie entre 6 et 36,
2) à chaque fois, on ne peut pas prédire le résultat sortant de la somme du tabulateur
Si on est dans du "pseudo"-aléatoire, on est dans du reproductible.
Non ?

A moins que ce soit là qu'intervienne l'effet du temps ? Je ne comprends pas trop.
Etienne a parlé de "graine" (un nombre qui permet d'initialiser une suite pseudo aléatoire et donc totalement prédictible par définition), cela a un rapport ?
3) les résultats respectent la loi normale, après des milliers de calculs, sans montrer de biais consistant.
C'est-à-dire ? Un biais consistant ?
Je ne sais pas comment les programmeurs font pour simuler ce pseudo-hasard, mais le résultat correspond bien à la définition d'un chiffre aléatoire.
Why not, encore qu'on parle de variables aléatoires (formellement c'est pas des chiffres mais des fonctions).
Bref j'aurais du mal à pousser le sujet perso, je trouve ça tellement compliqué.
Ps : par pur orgueil (au moins autant que Dash sans en avoir nécessairement les moyens, bref j'en profite pour spécifier mes débilités

) je me permets de corriger une connerie que j'ai dite plus haut. Les maths ne modélisent pas un "hasard fondamental" (si ça veut bien dire quelque chose).
La notion d''aléa contient essentiellement une forme de reproductibilité (sans quoi pas de modélisation possible).
Une loi de proba (ou fonction de densité/répartition/blabla..) modélise une forme de reproductibilité dans l'aléatoire.

Pas hyper fier de ma formulation mais c'est pour faire passer l'idée : ça reste en contradiction avec l'idée intuitive qu'on a sûrement tous du hasard.. le hasard échappe justement à toute modélisation.