Salut Dave,
Dave a écrit :
Si je comprends bien, j'aurais mal interprété l'expression « les conditions de formes restant d'ailleurs égales » d'Aristote. Je considérais seulement la forme du corps pendant sa chute et non les différentes formes qu'un corps peut avoir en général. De plus, l'exemple que j'ai soulevé est un cas extrême et idéalisé de conditions initiales qui, à la moindre perturbation, peuvent rendre le tout déformé.
Aujourd'hui, la précision des données (informatisées, avec les barres d'erreurs) et la quantité des données sont évidemment énormément plus grandes qu'auparavant, ce qui minimise (élimine?) l'aspect subjectif de l'observation humaine. Au temps d'Aristote, ce qui était considéré comme étant un fait objectif était surement moins rigoureux et précis que ce qui est considéré comme étant un fait objectif maintenant.
Et ce que l'on considère comme la méthodologie scientifique n'existait pas.
Au contraire, à l'époque par la "logique" et "l'intuition" on entendait se prononcer sur le réel.
Une approche expérimentale rigoureuse et chiffré est récente d'un point de vue historique.
Par exemple, si Aristote avait expérimenté son propos, il aurait vu que la relation
\(v = km\), qu'il propose comme paramétrisation ne tiens pas la route, même avec une simple observation humaine. C'est d'ailleurs ce point que Galilée remarquera

.
Mais, la méthodologie scientifique en terme d'expérimentation voit vraiment le jour "seulement" au XVII ième siècle.
Avant cela il est dur de parler d'objectivité.
Aussi, en tenant compte de l'ensemble de ses propos, je serais assez surpris que Klein ait vraiment voulu dire que la logique (une expérience de pensée) pouvait invalider à elle seule (sans expérience scientifique) un ensemble de données bien que sa façon de l'exprimer semble effectivement aller en ce sens dans le court extrait en question.
Je pense qu'il pêche surtout par sensationnalisme. Le fait qu'il use de propos fallacieux et erroné n'aide pas à voir d'un bon son propos non plus.
C'est surtout la formulation qui est inepte. Après, je ne me prononcerais sur ce qu'il pense vraiment.
Je préfère en rester à son présent propos, où il entend démontrer par la logique que "v=f(m)" est incohérent.
Bon, si il avait raison, le PFD serait incohérent.
Cela ne fait que peu de sens si l'objet n'est pas rigide.
Effectivement. C'est peut-être justement sur ce point précis de l'absence (?) du terme « rigide » dans les propos d'Aristote que l'expérience de pensée que propose Klein pouvait légitimement être affirmée, puisqu'il y aurait une contradiction entre le principe d'Aristote et le principe de force de Newton. Mais bon, ce n'est visiblement pas ce qu’EK a exprimé.
Qui plus est Newton arrive après Galilée, donc au temps de Galilée l'équipement formelle pour traiter se genre de problème n'existait pas encore

.
La ou le propos de Klein pêche (dans un contexte invalidation d'Aristote), c'est que de base, il compare la chute de A, B, et A+B ... ayant chacun 3 formes différentes, là ou Aristote théorise sur des objets ayant une même formes.
Donc dès le début, il entend invalider une théorie, en sortant du cadre où la théorie est énoncé. On peut donc se questionner sur la logique d'une telle approche, qui confine à l'inutile.
La science, heureusement, ne se base pas seulement sur les données de l'expérience, ni seulement sur la logique (raisonnement cohérent), mais sur une synergie salutaire entre ces deux aspects fondamentaux. Il est difficile pour moi de penser que Klein ait vraiment voulu contredire ce principe de base pourtant fort évident malgré le fait que sa vulgarisation laisse à désirer comme tu l'as très bien souligné.
C'est la question que je me pose, car il y a quand même certaines phrases qui font peur

.
Maintenant, laissons lui le bénéfice du doute sur ce qu'il pense, il n'est pas là pour se défendre, mais par contre son présent propos est inepte.
Dire des bêtises, c'est pas trop grave, ça arrive à tous. Le plus ennuyeux c'est quand les fanboys accourent pour nous interdire de critiquer les propos de leur idole, même quand ceux-ci sont hautement critiquable.
Et si l'on veut invalider la proposition naïve que « la paille se plie dans l'eau », on ne pourra pas le faire via le raisonnement, mais uniquement via l'expérience
.
Nous sommes d'accord! Cependant, le terme « uniquement » me semble exagéré. Personnellement, j'aurais utilisé l'adverbe « nécessairement » à la place. Enfin...
Pk pas ... sur ce point, je ne serai pas tatillons

.
Le raisonnement demeure tout de même utile (nécessaire en général) ne serait-ce que pour simplement penser à établir la différence entre « l'image de la paille se plie » et « la paille se plie ». Ces nuances (ou biais, en quelque sorte) sont-elles systématiquement prises (complètement?) en compte aujourd'hui?
ça dépend par qui. Des fois dans des discussions de travail, on se rend compte que certains collègues sont un peu confus sur la question.
Mais cela viens aussi du fait qu'avec la complexité de l'instrumentation moderne, avoir une vision du chemin que prennent les données avant d'arrivé aux scientifiques, ce n'est pas simple. Et donc, ce rendre compte de la nuance qui existent entre ce qui est effectivement mesuré et ce que l'on récupère vraiment "post-processing" ce n'est pas simple, et demande un intérêt de la part de la personne (ce qui n'est pas le cas de tout les chercheurs).
Même en terme d'analyse, on est souvent rendu à "faire confiance" à celui qui a fait l'étape précédente, en ce disant qu'aucun effet n'a été oublié, et que les incertitudes qui émanent du "traitement" fait aux données ont été correctement propagé.
Généralement, les paramètres oubliés (ou manquant), émergent assez vite si ils ont un fort impacte sur les données. Puisque ont se rend compte assez vide que la modélisation que l'on utilise pour les données n'est pas suffisante pour en rendre en compte. Et quand le modèle échoue à reproduire une observation ... il n'y a pas 36 milles choix, soit on ajoute la présence de nouveaux effets/paramètres, soit on change complètement de modèle.
L'approche utilisé étant celle que l'on peut justifier au mieux en terme de compréhension physique et surtout que l'on tester d'un point concret et scientifique.
Mais ici, on est bien dans le cas, où les data contraignent la modélisation des données (leur interprétation).
L'exemple du raisonnement de la chute des corps était pour EK probablement une façon analogique d'amener (d'introduire) le sujet de l'origine de la masse. (« Origine » : autre terme à tendance très subjective.) Le fait « le corps possède une masse » pouvait sembler complètement objectif il y a peu de temps déjà alors que le fait (négatif) « la masse n'est pas inhérente au corps » serait encore plus objectif (plus près de « la » réalité). En m'excusant pour cette approximation grossière, n'étant aucunement un expert de la théorie du modèle standard.
Je n'aime pas trop la suite (du propos de Klein) sur le boson de Higgs non plus. Puisque au final, ce qui est fait, c'est de remplacer la propriété intrinsèque "masse", par une propriété intrinsèque "section efficace d'interaction" avec le Higgs.
La masse est donc toujours la manifestation d'une propriété intrinsèque des particules.
Et c'est le propres de la science que de décrire toujours plus finement les objets, reléguant progressivement les propriété d'un objet au rang de manifestation d'effets plus fondamentaux.
Ce fut le cas de l'atome, du noyaux atomique et électrons, des protons et neutrons, des quarks ... et il y a de grande chance que l'histoire continue

.
Mais, dans l'ensemble, je suis en accord avec ton propos et j'aime énormément que tu prennes le temps de développer tes arguments avec des calculs mathématiques parlant. C'est très instructif.
Merci, c'est bien d'avoir l'avis de personne qui aime voir les calculs.
D'un point de vue philosophique, la science repose sur le postulat qu'il existe une réalité purement objective (les faits). Ce postulat serait infalsifiable. Non?
J'avoue ne pas avoir réfléchit massivement à la question.
Mais l'inexistence d'une réalité purement objective, devrait impliquer l'existence de fait contradictoires, non pas du fait de l'aspect lacunaire de notre modélisation des faits, mais intrinsèquement incohérent.
Ce qui pose un autre problème, si la réalité objective n'existe pas, toute tentative de description de l'Univers via des lois générique devient veine

. Puisqu'un autre sujet va aboutir à des lois différentes.
C'est donc, semble t-il, un postulat nécessaire en soit à la possibilité de décrire l'Univers, et à se jours, il semble plutôt crédible.
Cependant, qu'il soit vrai ou non, ce postulat n'empêche nullement la légitimité et le succès de l'activité scientifique.
Je dirait que le succès de l'approche scientifique tend à montrer qu'il existe bien une réalité objective qui est régit par un corpus de lois communes, et donc ne qui ne dépend pas du sujet.
De toute façon, la science est relativement indépendante des considérations strictement philosophiques. Aussi, j'ajouterais que les concepts, l'intuition et la subjectivité (philosophique) peuvent être très utiles pour simplifier et orienter avec succès l'activité scientifique. Ainsi, il ne sert à rien de mettre en opposition la science et la philosophie en croyant que l'un a du succès au détriment de l'autre, puisque les deux ont chacun leur rôle.
Je reste un fervent défenseur du fait que la philosophie des sciences est très importantes. J'ai déjà plus de mal, avec la façon dont est pratiqué cette discipline.
Où tristement, elle semble devenu un exercice de style littéraire ... où les auteurs s'acharne à formuler de façon complexe et obscur des raisonnement pourtant très simpliste

.
Le plus important est surtout de bien distinguer les moments où nous entreprenons une activité philosophique (ou une réflexion générale) de ceux correspondant à une activité scientifique.
En effet, et cette limite est parfois flou et loin d'être rigide, surtout des aspect de physique théorique.
Il s'agit de bien séparer les deux secteurs d'activités, c'est-à-dire rester vigilant, logique et cohérent, simplement. Beaucoup de débats ici même sur ce forum seraient clos si nous avions une parfaite capacité à bien distinguer chaque élément pour ce qu'ils sont censés représenter au départ. Même à l'intérieur de l'activité scientifique (et philosophique), il y a une multitude de sous-secteurs (degrés) avec des procédés bien différents et il ne faut donc pas mêler ces procédés. Il me semble assez aisé, malheureusement, de se mêler en ce sens, d'où l'intérêt, entre autres, de l'aspect reproductible des expériences, comme tu le mentionnes justement. Cependant, ce n'est jamais exactement la même expérience qui est reproduite et l'aspect reproductible demeure donc une approximation, en quelque sorte. Ça fait tout de même partie de la meilleure façon de progresser, bien sûr.
En effet, ce n'est jamais la même expé. Il y a au minimum, les incertitudes qui seront différentes.
Mais la reproductibilité, ce n'est pas rigoureusement l'identité exacte entre deux observations distincte, mais la cohérence des distributions de probabilité des dites obs. C'est un point encore plus cruciale en MQ d'ailleurs, où par essence, des phénomène probabilistes, ne produiront pas le même résultats à chaque fois ... cependant, la statistique de l'observation elle sera respectée, et c'est ce que l'on entend pas reproductibilité.
En astro/cosmo d'autre problème ce pose. Les objets évolu dans le temps, par exemple quand un télescope observe une Supernova, quand elle est fini, elle est fini, cette observation n'a pas reproductible.
La reproductibilité des observation en terme de statistique des observations prend ici encore un sens tout particulier, car chaque observation est uniquement et ne pourra pas être répéter, ni reproduit en labo.
Pour l'univers dans son ensemble, c'est même pis encore de ce coté là, on as une et une seule réalisation du phénomène. Et cela limite grandement notre capacité à contraindre certain aspect des modèles, puisque l'unicité de cette observation doit être pris en compte dans les incertitudes sur notre interprétation notre modélisation de l'univers.
Je ne crois pas t'apprendre bien des choses avec ce simple texte, mais une question persiste dans mon esprit.
Les faits objectifs (les données de l'expérience et des conditions de l'expérience) peuvent-ils être complètement séparés (vidés) de toute subjectivité probablement inhérente à tout concept? Plus généralement, peut-on savoir que telles données sont complètement exemptes de subjectivité? Ironiquement, ce questionnement est lui-même probablement en partie subjectif.
Vaste question. Ma réponse dépend surtout des mots et du sens que l'on cache derrière

.
Je la résumerais ainsi : "Un système non-humain d'acquisition de données est-il non subjectif ?".
Si on considère que la "réponse instrumentale" (constante de temps, bande passante, ...) sont propre à l'instrument, alors dans une certaines mesure un instruments est lui même subjectif, il mesure le signal avec une fonction de transfert donnée, qui lui est prore. Cependant, on peut mesurer cette fonction de transfert, mais toute mesurée que soit cette fonction de transfert, elle le sera avec des incertitudes (pour cela que l'aspect statistique de la reproductibilité est vraiment important, il serait naïf de se lancer dans une quête de reproductibilité absolu).
Aussi, ais-je envie de dire, oui les instruments de mesure non-humain sont subjectifs, mais nous sommes capable de mesurer cette subjectivité, afin de "déconvoluer" les données où de "convoluer" les modèles par cette subjectivité, autorisant ainsi une comparaison data/modèle sur le même "plan".
Là ou le système non-humain est supérieur à l'humain, c'est que ça "subjectivité" est moins sujette à variations (même si il est préférable de toujours checker, si possible, les caractéristiques de l'instrument avant et après les mesures, histoire d'être sur que ça a pas bouger pendant la mesure

.)
Et là, on ne s'en sort plus. En fait, si le « fait » ne peut pas être assuré d'être réellement dépourvu (ce qui semble le cas) de toute subjectivité ou de tout biais-erreur (peut-être existe-t-il des biais d'observation non encore découverts?), les propos d’EK laissant penser que l'on peut modifier un « fait » en modifiant notre subjectivité-conception paraissent beaucoup plus acceptables, à mon avis.
Il est fréquent de percevoir un "biais", où plus précisément la découverte d'un "biais" comme une modification des données (car souvent on soustrait ce biais).
De mon point de vu, j'ai toujours perçu les biais, comme au contraire une question de modélisation. Où l'on passe d'une modélisation d'un problème sous la forme "y = f(x1,x2,x3)" à une modélisation de la forme "y = f(x1,x2,x3,w)", où "w" est un terme de biais. Je préfère ainsi percevoir un biais comme un effet supplémentaire qui se sur-impose au signal et quoi doit donc être inclue dans le modèle, sans quoi, l'interprétation en devient erroné.
Pour ce qui est des incertitude au sens large, on en revient au fait que la reproductibilité d'une mesure pour un effet physique, n'a de sens qu'en terme probabiliste.
La non reproductibilité d'une expérience (désaccords stat) tend à montrer qu'au moins l'une des expé contient un biais non-maitrisé (un extra-paramètre donc), ce qui permet justement de maitre en lumière l'endroit où il faut chercher un aspect lacunaire de la modélisation (un biais quoi

.).
Les données demeurent, elles ne changent pas.
Je comprends l'idée générale, mais en entrant dans les détails (d'une petite analyse philosophique (sémantique) de cette affirmation), il devient moins clair que les faits purement objectifs existent bel et bien.
Tout instrument te rend une mesure qui lui est propre, de ce point je te suit, elle subjective.
Deux mesure successive (toute caractéristique identique) par le même instrument va même produire deux mesure qui ne sont pas complètement identique (différence au niveau du bruit instrumentale).
Cependant, on sait estimer qu'elle est la "subjectivité de l'instrument" et donc en déconvoluer (c'est un long travail de caractérisation de l'instrument).
Cependant, reste le bruit instrumental. Que l'on peut percevoir comme une dispersion de la valeur mesuré autour de la valeur objective réel du à la "subjectivité" résiduelle de la mesure.
C'est également un travail complexe que produire une estimation précise des incertitude de mesure.
C'est ici, de nouveaux, que la vision de la reproductibilité sous forme d'accords stat est requis. Et si les incertitudes sont bien estimer, il doit y avoir accord stat.
Donc, certes l'accès à la "valeur" objective de ce que l'on mesure est par essence impossible, il y aura toujours une incertitude de mesure, si petite soit-elle, mais si cettes incertitude est connue, elle n'est nullement problématique, puisque l'on sait caractériser l’accord entre différentes mesures d'une même grandeur.
Les données ne changent pas à un instant précis du passé, d'accord, le passé reste le passé, le passé demeure le même (jusqu'à preuve du contraire). Du moins, c'est très raisonnable de le penser.
En fait, tu ouvre ici sur une question très intéressante, qui mériterait surement un topic à part !
La MQ, implique que lors d'une interaction un état "superposé" se projette dans un état donnée. Si tu observe l'état d'une particule après cette interaction, tu n'as alors plus aucune chance de savoir qu'elle était l'état superposé avant interaction, l'information à été "perdu".
Cela ouvre donc la question de l'unicité du passé. Si le présent, ne possède pas toute l'information sur le passé, notre passé est-il unique ?
De même que l'on aime souvent dire que la MQ implique qu'il existe plein de futur possible, n'implique t-elle pas que notre réalité présente est la conséquence de plusieurs passé potentiels ? D'une certaine manière si, puisque le présent ne contient pas toute l'info sur le passé, donc le présent ne permet pas de connaitre à 100% quel était le passé

.
A méditer ... mal de crâne garantie

.
Cependant, dans la pratique et dans leur analyse, elles peuvent changer (en « reproduisant » l'expérience) du fait de leur imprécision (détermination des barres d'erreur elle-même approximative; je sais, j'abuse énormément sur ce détail assez négligeable en réalité) ou du fait de conditions d'expérience différentes, n'étant pas prises en compte ou non encore découvertes. Je ne sais pas trop si ma question est claire... En somme, nous sommes d'accord que l'objectivité des données est assurée au moins quasi complètement. Peut-on rigoureusement enlever le terme « quasi »? Ici, c'est toujours sensiblement la même question que je repose différemment.
Indeed, et ma réponse sera sensiblement la même

.
Oui, les data ont une part qui est "instrument" dépendante et une part qui est "réalisation" dépendante (deux mesure par le même instrument présenterons un bruit différent, de même stat, mais différent), en ce sens elles sont subjective.
Mais cette "subjectivité", peut-être contrôlée, afin de produire la meilleure estimation de la grandeur objectif sous-jacent. Il y a même des cas où c'est la grandeur objective elle même qui présente des fluctuations

.
A plus,
G>