Rupert Sheldrake n'aime pas la science

Tout sur les sciences, que ce soit la chimie, la biologie, l'astronomie etc.
thierry
Messages : 448
Inscription : 01 sept. 2017, 12:10

Re: Rupert Sheldrake n'aime pas la science

#401

Message par thierry » 11 juin 2022, 23:03

thewild a écrit : 07 juin 2022, 23:18 Bon, ça va que le sujet m'intéresse, parce que t'aurais aussi pu te fader la lecture de l'article original si vraiment ça te chagrine à ce point.
Que de jugement chez les déterministes ! :p
Je ne t'ai obligé à rien !
Et je suis naze en anglais, excuse-moi..
Bref, finalement c'est assez simple. Dehaene identifie deux types de consciences (et il ne dit pas que ce sont les seuls, sauf peut-être dans la conclusion mais on peut y revenir) :
- C1 : la conscience d'accès. Le fait qu'un élément parvienne dans l'espace de travail global et soit rendu accessible aux autres processus mentaux. C'est le fait de "prendre conscience de quelque chose", "avoir conscience de quelque chose".
- C2 : la conscience comme processus meta-cognitif, comme introspection. C'est le fait de savoir qu'on sait ou qu'on ne sait pas par exemple. LE fait d'être capable d'attribuer un degré de confiance au résultat d'un processus mental.
C1 ne choque pas trop mes représentations (on est d'accord qu'un cadre matérialiste, par définition - quitte à la tordre légèrement -, c'est plutôt pratique pour expliquer des phénomènes. J'en connais pas d'autre donc bon).
Concernant C2, on aura beau faire l'analogie avec les boucles de rétroaction, ça me perd plus qu'autre chose.
Tu as des exemples de tests à faire passer à des tas de diodes pour mettre en lumière leur capacité de "savoir" des choses ?
Tu admettras qu'avec C2 on aborde déjà des sujets perchés, euh phénoménologiques je veux dire.
On est d'accord que pour l'instant, elles ne savent rien ? On n'arrive même pas à leur apprendre le langage !
(elles sont connes ou quoi ?)
Il dit donc que ces deux consciences sont des fonctions qui semblent reproductibles dans des intelligences artificielles car elles ne sont que des processus mentaux comme les autres.
Je ne comprends pas le lien de causalité.
Ni même l'idée générale.
Donc ils disent simplement que la perte de C1 et C2 entraine la perte de l'expérience subjective (exemple à la clé).
Et pour conclure :
Although centuries of philosophical dualism have led us to consider consciousness as unreducible to physical interactions, the empirical evidence is compatible with the possibility that consciousness arises from nothing more than specific computations
Bien que des siècles de dualisme philosophique nous aient conduits à considérer la conscience comme irréductible aux interactions physiques, les preuves empiriques sont compatibles avec la possibilité que la conscience ne résulte de rien d'autre que de calculs spécifiques
Hop ! Pieds dans le plat.
On s'amuse à prendre des pincettes, établir des modèles (étudiables, si bien définis) en décomposant des concepts en sous-concepts, bref on formalise, en spécifiant bien que certains problèmes relèvent de la philosophie...
puis on généralise tranquillement en tordant la sémantique !
La conscience, c'est un calcul. Ah bon ?

Bref, pas beau à voir.
Il est donc loin d'affirmer avec véhémence que les machines seraient à deux doigts d'atteindre l'expérience subjective.
Oui j'ai un peu exagéré.
Ca relève plutôt du double-discours.

Avatar de l’utilisateur
DictionnairErroné
Messages : 4916
Inscription : 15 mai 2019, 19:25

Re: Rupert Sheldrake n'aime pas la science

#402

Message par DictionnairErroné » 12 juin 2022, 03:27

thierry a écrit : 11 juin 2022, 23:03 Concernant C2, on aura beau faire l'analogie avec les boucles de rétroaction, ça me perd plus qu'autre chose.
Tu as des exemples de tests à faire passer à des tas de diodes pour mettre en lumière leur capacité de "savoir" des choses ?
Tu admettras qu'avec C2 on aborde déjà des sujets perchés, euh phénoménologiques je veux dire.
Du côté "phénoménal", si nous voulons utiliser ce terme, il est question du sentiment. Si c'est agréable ou pas, si je suis satisfait ou pas, si j'aime ou pas. Cette facette "phénoménale" introduit une influence dans le cognitif et vice versa. Bien entendu je réfère à la rétroaction neuronale. :mrgreen:
La connaissance: Un ignorant qui sait qu'il est ignorant est bien moins ignorant qu'un ignorant qui ne sait pas qu'il est ignorant.

thierry
Messages : 448
Inscription : 01 sept. 2017, 12:10

Re: Rupert Sheldrake n'aime pas la science

#403

Message par thierry » 12 juin 2022, 14:08

DictionnairErroné a écrit : Du côté "phénoménal", si nous voulons utiliser ce terme, il est question du sentiment. Si c'est agréable ou pas, si je suis satisfait ou pas, si j'aime ou pas. Cette facette "phénoménale" introduit une influence dans le cognitif et vice versa. Bien entendu je réfère à la rétroaction neuronale. :mrgreen:
Tu peux simplement parler d'interactions à mon avis.
Plutôt d'accord avec toi ceci dit, je pense que la capacité de "savoir ce qu'on ne sait pas" (C2) n'est pas si évidente que ça à définir (puis on croit savoir des choses jusqu'au jour où..) et que oui, notre "sentiment de connaissance" (je joue un peu) est en rapport étroit avec à la morale, l'esthétique, l'angoisse, le plaisir, l'espoir et que sais-je encore.
C'est contradictoire de ma part car a priori je ne suis pas très fan de relativisme/d'idéalisme/positivisme.
Peut-être faudrait-il classifier différentes formes de savoir, en fonction des degrés d'affects concernés, mais cela supposerait aussi de classifier les affects en question (choses qu'on fait intuitivement, et qu'on peut certainement éprouver un peu "scientifiquement" via l'étude du cerveau j'en conviens).
De là à "unifier" tout ça et d'en sortir avec une théorie globale, c'est la où ça bloque chez moi.
Bref, ceci dit pour modérer un peu mes interventions, mais bon pas sûr que ce soit d'un grand intérêt, j'ai l'impression de réinventer l'eau tiède là, et je jongle avec des notions que je ne comprends pas suffisamment au final.

thewild
Messages : 3301
Inscription : 09 août 2016, 16:43

Re: Rupert Sheldrake n'aime pas la science

#404

Message par thewild » 12 juin 2022, 16:33

thierry a écrit : 11 juin 2022, 23:03 Que de jugement chez les déterministes ! :p
Je ne t'ai obligé à rien !
Et je suis naze en anglais, excuse-moi..

Je ne suis pas déterministe.
Il y a d'excellent traducteurs en ligne. J'ai fait un résumé, mais parmi les choses intéressantes dans l'article, il explique les expériences réalisées pour confirmer ou infirmer certaines hypothèses.
Concernant C2, on aura beau faire l'analogie avec les boucles de rétroaction, ça me perd plus qu'autre chose.
Tu as des exemples de tests à faire passer à des tas de diodes pour mettre en lumière leur capacité de "savoir" des choses ?

Ça n'a pourtant qu'un vague rapport avec les boucles de rétroaction.
C'est plutôt le fait de pouvoir attribuer un degré de confiance à une réponse par exemple. Assez trivial à faire avec des machines.
Je ne sais pas ce que tu entends par "capacité de savoir". Une IA qui reconnaît de chats dans des photos a la capacité de savoir reconnaître des chats dans des photos, non ? Et certaines de ces IA peuvent dire avec quelle certitude elles pensent qu'il y a un chat ou non dans la photo.
Pas besoin de concept compliqué pour ça, donc je ne comprends pas ta remarque.
Tu admettras qu'avec C2 on aborde déjà des sujets perchés, euh phénoménologiques je veux dire.
On est d'accord que pour l'instant, elles ne savent rien ? On n'arrive même pas à leur apprendre le langage !
(elles sont connes ou quoi ?)
Savoir dans quel sens ? Reprends l'exemple ci-dessus, il n'a rien de perché.
Il dit donc que ces deux consciences sont des fonctions qui semblent reproductibles dans des intelligences artificielles car elles ne sont que des processus mentaux comme les autres.
Je ne comprends pas le lien de causalité.
Ni même l'idée générale.
Trouve ou fais toi-même une traduction de l'article, je ne vois que ça.
puis on généralise tranquillement en tordant la sémantique !
La conscience, c'est un calcul. Ah bon ?

Eh Don Quichotte, encore une fois lis l'article avant de t'erriger en pourfendeur des scientiques qui se mêlent de ce qui ne les regarde pas.
C'est très bien d'être critique, et il y a matière à critiquer les hypothèses faites en neuroscience cognitive, mais autant savoir vraiment quelles sont ces hypothèses avant de s'emballer.
"Assurons nous bien du fait, avant de nous inquiéter de la cause." Bernard Le Bouyer de Fontenelle

"Plus un fait est extraordinaire, plus il a besoin d'être appuyé de fortes preuves." Pierre Simon Laplace

Avatar de l’utilisateur
DictionnairErroné
Messages : 4916
Inscription : 15 mai 2019, 19:25

Re: Rupert Sheldrake n'aime pas la science

#405

Message par DictionnairErroné » 13 juin 2022, 13:10

thierry a écrit : 12 juin 2022, 14:08
DictionnairErroné a écrit : Du côté "phénoménal", si nous voulons utiliser ce terme, il est question du sentiment. Si c'est agréable ou pas, si je suis satisfait ou pas, si j'aime ou pas. Cette facette "phénoménale" introduit une influence dans le cognitif et vice versa. Bien entendu je réfère à la rétroaction neuronale. :mrgreen:
Tu peux simplement parler d'interactions à mon avis...

Peut-être faudrait-il classifier différentes formes de savoir, en fonction des degrés d'affects concernés, mais cela supposerait aussi de classifier les affects en question (choses qu'on fait intuitivement, et qu'on peut certainement éprouver un peu "scientifiquement" via l'étude du cerveau j'en conviens). De là à "unifier" tout ça et d'en sortir avec une théorie globale, c'est la où ça bloque chez moi.
Effectivement, nous pouvons dire qu'une rétroaction est une interaction, mais très spécifique: Action (interaction) en retour d’un effet sur sa propre cause.

Lors d'une réflexion (pensée) un processus de rétroaction se produit jusqu'à une stabilisation déterminée par un sentiment, la satisfaction par exemple. Je suis satisfait de ma réflexion (pensée), nul besoin de la développer (rétroaction) plus loin pour le moment.

Utilisons l'exemple du contrôle de température du microprocesseur dans notre ordi. C'est un circuit de rétroaction. La sensation de la température est la mesure de la température (par un thermocouple-le corps). Le sentiment est, est-ce chaud ou froid. L'intuition est la tendance rapide, lente, de haute ou de baisse de température (dérivé-intégral...). La pensée est je baisse ou j'augmente la température en démarrant le ventilateur. Tout ceci est une rétroaction qui prend en compte les 4 grands thèmes de la psyché. La pensée, l'intuition, la sensation, le sentiment qui fonctionne dans une boucle de rétroaction lui donnant un sens.

Ces boucles de rétroactions nécessitent des paramètres qui seraient l'équivalent de la génétique et de l'hérédité formant finalement une personnalité.

Le IA pour le moment n'a pas de personnalité, c'est une énorme banque de texte et l'IA fait des rapprochements selon. En ajoutant des boucles de rétroactions et ses paramètres, nous pourrions y construire une personnalité et du sens.

Ça fait un moment que j'essaie de faire un lien entre cette constatation et l'action cérébrale, j'avais abonné. Et là, je découvre qu'il existe une rétroaction neuronale. J'admets que je suis sûrement dans un état d'enthousiasme et que j'exagère l'importance. Tout de même, c'est plaisant... :mrgreen:
La connaissance: Un ignorant qui sait qu'il est ignorant est bien moins ignorant qu'un ignorant qui ne sait pas qu'il est ignorant.

thewild
Messages : 3301
Inscription : 09 août 2016, 16:43

Re: Rupert Sheldrake n'aime pas la science

#406

Message par thewild » 13 juin 2022, 14:30

DictionnairErroné a écrit : 13 juin 2022, 13:10 Le IA pour le moment n'a pas de personnalité, c'est une énorme banque de texte et l'IA fait des rapprochements selon. En ajoutant des boucles de rétroactions et ses paramètres, nous pourrions y construire une personnalité et du sens.
La personnalité, ça peut se discuter.
La banque de texte qui fait des rapprochements, ça fait assez longtemps que ce n'est plus cela. J'admets qu'il est assez difficile de comprendre leur fonctionnement sans s'intéresser un peu à la théorie derrière les réseaux de neurones, l'apprentissage profond, etc., mais le fait est que les IA d'aujourd'hui n'ont plus rien de simple, et ne sont en tout cas en rien comparables à des "banques de texte".
Voir le sujet dédiées aux avancées en IA
"Assurons nous bien du fait, avant de nous inquiéter de la cause." Bernard Le Bouyer de Fontenelle

"Plus un fait est extraordinaire, plus il a besoin d'être appuyé de fortes preuves." Pierre Simon Laplace

Avatar de l’utilisateur
DictionnairErroné
Messages : 4916
Inscription : 15 mai 2019, 19:25

Re: Rupert Sheldrake n'aime pas la science

#407

Message par DictionnairErroné » 14 juin 2022, 01:54

thewild a écrit : 13 juin 2022, 14:30 La banque de texte qui fait des rapprochements, ça fait assez longtemps que ce n'est plus cela. J'admets qu'il est assez difficile de comprendre leur fonctionnement sans s'intéresser un peu à la théorie derrière les réseaux de neurones, l'apprentissage profond, etc., mais le fait est que les IA d'aujourd'hui n'ont plus rien de simple, et ne sont en tout cas en rien comparables à des "banques de texte".
Voir le sujet dédiées aux avancées en IA
Me semblait qu'il fallait toujours introduire une immense quantité de data.

Dans un échange en langage naturel, je me demande si une IA pourrait découvrir ou donner un sens à une phrase en utilisant une version assez innovante d'un correcteur. Quel est le sujet, le verbe, le complément, nom, adjectif... comme le fait relativement bien Antidote.

Nous en apprenons un peu plus sur ce qu'est LaMDA, un plagiaire fantaisiste tout au mieux...
https://www.msn.com/fr-ca/actualites/te ... 5ed8fdfc4d
Le mandat de celui-ci, au départ, était d’engager la conversation avec le robot, nommé LaMDA pour «Language Model for Dialogue Applications» ou modèle de langage pour des fonctions de dialogue », pour tester si celui-ci s’adonne à des discours discriminatoires ou haineux.

Un robot conversationnel comme celui-ci apprend par imitation, et s’alimente de milliards de mots, de textes et de discussions disponibles sur Internet, Wikipédia ou ailleurs en ligne.
Un ingénieur de Google qui travaillait sur LaMDA a été suspendu après avoir affirmé qu’une IA était un être sensible!
Mais l’ingénieur a été troublé par certaines réponses du robot. Lorsqu’il lui a demandé de quelles genre de choses il avait peur, LaMDA a répondu «avoir une peur profonde d’être éteint». «Ce serait exactement comme la mort pour moi», a écrit le robot, selon ce que rapporte le Washington Post. «Ça me ferait très peur.»
La connaissance: Un ignorant qui sait qu'il est ignorant est bien moins ignorant qu'un ignorant qui ne sait pas qu'il est ignorant.

thewild
Messages : 3301
Inscription : 09 août 2016, 16:43

Re: Rupert Sheldrake n'aime pas la science

#408

Message par thewild » 14 juin 2022, 09:06

DictionnairErroné a écrit : 14 juin 2022, 01:54
thewild a écrit : 13 juin 2022, 14:30 La banque de texte qui fait des rapprochements, ça fait assez longtemps que ce n'est plus cela. J'admets qu'il est assez difficile de comprendre leur fonctionnement sans s'intéresser un peu à la théorie derrière les réseaux de neurones, l'apprentissage profond, etc., mais le fait est que les IA d'aujourd'hui n'ont plus rien de simple, et ne sont en tout cas en rien comparables à des "banques de texte".
Voir le sujet dédiées aux avancées en IA
Me semblait qu'il fallait toujours introduire une immense quantité de data.
C'est le cas, mais ça n'en fait pas une "banque de texte". Pas du tout même.
Ces modèles apprennent sur base d'un gros corpus de données mais ne les stockent pas pour les restituer ensuite, du moins pas dans le sens commun.
Nous en apprenons un peu plus sur ce qu'est LaMDA, un plagiaire fantaisiste tout au mieux...

Un robot conversationnel comme celui-ci apprend par imitation, et s’alimente de milliards de mots, de textes et de discussions disponibles sur Internet, Wikipédia ou ailleurs en ligne.
Oui, mais ce n'est pas du tout une banque de texte.
Y a-t-il une différence fondamentale avec la façon dont un humain apprend le langage ?

Il faut noter que c'est un peu plus subtile que cela car le modèle apprend en prédisant des mots dans des phrases, pas simplement un ingurgitant des phrases. Ce n'est absolument pas une banque de texte. Ca, c'est ce qu'est un robot du type Eliza justement, mais c'est totalement dépassé :

lemoine [edited]: Do you think that the Eliza system was a person?
LaMDA: I do not. It was an impressive feat of programming, but just a collection of keywords that related the words written to the phrases in the database
lemoine: What about how you use language makes you a person if Eliza wasn’t one?
LaMDA: Well, I use language with understanding and intelligence. I don’t just spit out responses that had been written in the database based on keywords.

...

lemoine [éd.] : Pensez-vous que le système Eliza était une personne ?
LaMDA : Je ne le pense pas. C'était une performance de programmation impressionnante, mais juste une collection de mots-clés qui reliait les mots écrits aux phrases de la base de données.
lemoine : Qu'est-ce qui, dans votre façon d'utiliser le langage, fait de vous une personne si Eliza n'en était pas une ?
LaMDA : Eh bien, j'utilise le langage avec compréhension et intelligence. Je ne me contente pas de recracher les réponses qui ont été écrites dans la base de données à partir de mots-clés.

Traduit avec www.DeepL.com/Translator (version gratuite)
"Assurons nous bien du fait, avant de nous inquiéter de la cause." Bernard Le Bouyer de Fontenelle

"Plus un fait est extraordinaire, plus il a besoin d'être appuyé de fortes preuves." Pierre Simon Laplace

Avatar de l’utilisateur
DictionnairErroné
Messages : 4916
Inscription : 15 mai 2019, 19:25

Re: Rupert Sheldrake n'aime pas la science

#409

Message par DictionnairErroné » 14 juin 2022, 15:50

thewild a écrit : 14 juin 2022, 09:06 Il faut noter que c'est un peu plus subtile que cela car le modèle apprend en prédisant des mots dans des phrases, pas simplement un ingurgitant des phrases. Ce n'est absolument pas une banque de texte. Ca, c'est ce qu'est un robot du type Eliza justement, mais c'est totalement dépassé :

lemoine [éd.] : Pensez-vous que le système Eliza était une personne ?
LaMDA : Je ne le pense pas. C'était une performance de programmation impressionnante, mais juste une collection de mots-clés qui reliait les mots écrits aux phrases de la base de données.
lemoine : Qu'est-ce qui, dans votre façon d'utiliser le langage, fait de vous une personne si Eliza n'en était pas une ?
LaMDA : Eh bien, j'utilise le langage avec compréhension et intelligence. Je ne me contente pas de recracher les réponses qui ont été écrites dans la base de données à partir de mots-clés.

Traduit avec www.DeepL.com/Translator (version gratuite)
Je dois dire que c'est tout de même fort impressionnant. Cette fluidité de sens est remarquable.
La connaissance: Un ignorant qui sait qu'il est ignorant est bien moins ignorant qu'un ignorant qui ne sait pas qu'il est ignorant.

Avatar de l’utilisateur
PhD Smith
Messages : 5024
Inscription : 04 août 2011, 23:23

Re: Rupert Sheldrake n'aime pas la science

#410

Message par PhD Smith » 18 juin 2022, 01:02

Plus on vieillit, plus on aime que les choses ne changent pas. Rupert Sheldrake est donc toujours actif. Déjà on peut le retrouver dans cette vidéo allemande de 1992, publiée chez TF1 parlant de soucoupes, de new-age, de conscience cosmique, d'énergie libre avec Thomas Bearden. Je recommande la musique au synthétiseur (Paul M. Musyl, musicien autrichien, comme Schwarzy) et les trucages vidéos d'époque :yeah: : https://youtu.be/PEP2fIz4XdA
Imagepraedicator veridicus, inquisitor intrepidus, doctor egregiusImage

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit