Gérard Berry : « L’ordinateur est complètement con »
Re: Gérard Berry : « L’ordinateur est complètement con »
f.didier, je suis d'accord avec ce que vous dites, mais, nécessairement (je pensais que c'était implicite), je pensais à d'autres types de « changements » que ceux que vous énumérez. J'ai l'impression que vous avez interprété ma question comme si elle avait été posée par un enfant de 5 ans.
Ce que je voulais dire, c'est des modifications de structures des circuits électroniques p. ex., ou d'agencement de technologies et non pas d'ajouter ou retirer des composants de base (un HD de plus ou de moins, etc., c'est pas ce dont je veux parler), mais de leurs conceptions intrinsèques. Avec les infos qu'on peut fournir à une IA, tout comme elle peut calculer les millions de possibilités pour gagner une partie d'échec, elle pourrait calculer plusieurs combinaisons potentielles et déduire~suggérer des améliorations qui la rendrait elle-même plus efficiente. etc.
Ce que je voulais dire, c'est des modifications de structures des circuits électroniques p. ex., ou d'agencement de technologies et non pas d'ajouter ou retirer des composants de base (un HD de plus ou de moins, etc., c'est pas ce dont je veux parler), mais de leurs conceptions intrinsèques. Avec les infos qu'on peut fournir à une IA, tout comme elle peut calculer les millions de possibilités pour gagner une partie d'échec, elle pourrait calculer plusieurs combinaisons potentielles et déduire~suggérer des améliorations qui la rendrait elle-même plus efficiente. etc.
Penser savoir est une chose, savoir penser en est une autre !
Re: Gérard Berry : « L’ordinateur est complètement con »
f.didier, tu résonnes toujours en considérant qu'un IA se loge dans un PC bas de gamme, ce n'est pas le cas.
Aujourd'hui la majorité des composants d'un serveur sont "hot swapable". D'autre part, une plateforme de virtualisation dans un datacenter est composée d'un cluster de millier de machines (CPU+RAM) qui sont interchangeables à volonté. Les expériences d'IA actuel utilisent ce genre d'infrastructure.
Mais la question de Dash soulève un point cruciale, on parle de programmer une IA mais il lui manquera effectivement un "corps" (ce qui n'est pas un problème on peut lui adjoindre des périphériques) et surtout la possibilité de se reproduire. On programme déjà des systèmes en utilisant la sélection naturelle, mais elle est simulée. A-t-on besoin d'un système auto-répliquant ?
Je suis 100% en accord avec Yvesr sur les points qu'il a soulevés. Bien sûr, on reste sur des spéculations puisqu'on ne dispose pas encore d'une IA avec "conscience". Mais on dispose déjà de technologie et d'IA spécialisées qui offrent une assez bonne idée de ce que pourront être les premiers systèmes réellement conscient. Ce que certains ne semblent pas comprendre, c'est qu'une IA peut "apprendre". Elle ne peut apprendre pour le moment que dans les limites de ce qui a été déterminés/précablé (entrée/sortie/nombre de neurones,...) mais ce sont exactement les mêmes limites que pour l'humain.
Aujourd'hui la majorité des composants d'un serveur sont "hot swapable". D'autre part, une plateforme de virtualisation dans un datacenter est composée d'un cluster de millier de machines (CPU+RAM) qui sont interchangeables à volonté. Les expériences d'IA actuel utilisent ce genre d'infrastructure.
Mais la question de Dash soulève un point cruciale, on parle de programmer une IA mais il lui manquera effectivement un "corps" (ce qui n'est pas un problème on peut lui adjoindre des périphériques) et surtout la possibilité de se reproduire. On programme déjà des systèmes en utilisant la sélection naturelle, mais elle est simulée. A-t-on besoin d'un système auto-répliquant ?
Je suis 100% en accord avec Yvesr sur les points qu'il a soulevés. Bien sûr, on reste sur des spéculations puisqu'on ne dispose pas encore d'une IA avec "conscience". Mais on dispose déjà de technologie et d'IA spécialisées qui offrent une assez bonne idée de ce que pourront être les premiers systèmes réellement conscient. Ce que certains ne semblent pas comprendre, c'est qu'une IA peut "apprendre". Elle ne peut apprendre pour le moment que dans les limites de ce qui a été déterminés/précablé (entrée/sortie/nombre de neurones,...) mais ce sont exactement les mêmes limites que pour l'humain.
« La Science est une méthode pour décider si ce que nous choisissons de croire se base ou non sur les lois de la Nature ».
Re: Gérard Berry : « L’ordinateur est complètement con »
C'est exactement le fondement de la singularité. On confira aux IA la recherche de solutions complexes (ce qu'on fait déjà) et on mettra dans un premier temps ces innovations aux points. Mais rapidement, on pourra imaginer des IA qui programment d'autres IA avec un accroissement exponentiel de la complexité. Les techniques d'impression 3D et les chaînes de montages largement automatisée permettent des scénario de SF où les IA se passeront des hommes pour se fabriquer elle-même.Dash a écrit :elle pourrait calculer plusieurs combinaisons potentielles et déduire~suggérer des améliorations qui la rendrait elle-même plus efficiente. etc.
« La Science est une méthode pour décider si ce que nous choisissons de croire se base ou non sur les lois de la Nature ».
Re: Gérard Berry : « L’ordinateur est complètement con »
f.didier, voici une « image » simpliste qui se rapproche un peu de ce que j'imagine en tant que « principe » ou idée générale (dans le but de palier à la plasticité du cerveau et au dynamisme (vitalité) de la matière organique...).
Imaginons un «motherboard universel » (qui pourrait être de la taille d'une table de billard) où tous les circuits et jonctions des PCB pourraient être dérivées~modifiés* vers tous les autres à la volée. Plusieurs UC, mémoire et autre composant (résistances, etc.) étant disposés stratégiquement de façon à pouvoir servir conjointement/séparément selon le plus grand nombre de configuration possible. Donc pas besoin d'inclure de carte ou de périphérique dédié (selon les cas), car tous les constituants de ses types de carte sont de toute façon déjà présents (en plusieurs nombres) sur la carte mère et sont potentiellement déjà existant selon les différentes combinaisons de PCB qui peuvent se former ici et là sur l'ensemble de la carte mère (seul un composant principal de base, une espèce de ROM sur « mini PCB rigide » n'est pas modifiable pour assurer la programmation initiale).
Selon les « besoins », la tâche ou l'opération à effectuer, l'IA pouvant modifier~configurer l'agencement le plus approprié (efficient) de ses propres composants internes et circuits-imprimés.
La façon la plus simple et grossière d'imager mon idée serait de vous imaginer un motheboard « transformer » qui pourrait prendre divers type de configuration matériel pour être le plus en adéquation possible avec (l'évolution de ses auto-programmation software) une tache x ou y à un instant t en maximisant l'utilisation de tout ce qui est présent sur la carte. Mais aussi dans le but de permettre à l'IA d'apprendre à tester et configurer diverses combinaisons et agencement tout en pouvant vérifier les résultats en pratique, de façon « empirique » et non pas juste par anticipation~extrapolation mathématique.
Mais bon, c'est encore très grossier comme représentation. Cela pourrait aller encore plus loin et plus profondément (nanotechno, quantique, etc.) en permettant de modifier la structure même de chaque composant. Le but étant de « libérer »l'IA de l'aspect « statique » de ce qui le compose en tant que matériel et d'acquérir (live, sur-le-champ et à volonté), la possibilité de restructurer et modifier certains de ses propres constituants hardware (du moment que cela ne lui fasse jamais perdre sa « conscience~programmation » de base).
*Au lieu de soudures, il pourrait s'agir de « micro canaux » (nanotechno) transportant du liquide conducteur d'électricité et, selon les différentes dérivations, pourrais former n'importe quelle configuration potentielle de circuit imprimé, instantanément, selon le besoin, etc. Aussi, ce qui constitue habituellement les UC et les mémoires, etc., pourraient également être disposé stratégiquement de façon à ne pas devoir être utiliser forcément comme tel pour ce qu'il sont, mais pouvant être assemblé/désassemblé~utilisé qu'en partie, etc.
Imaginons un «motherboard universel » (qui pourrait être de la taille d'une table de billard) où tous les circuits et jonctions des PCB pourraient être dérivées~modifiés* vers tous les autres à la volée. Plusieurs UC, mémoire et autre composant (résistances, etc.) étant disposés stratégiquement de façon à pouvoir servir conjointement/séparément selon le plus grand nombre de configuration possible. Donc pas besoin d'inclure de carte ou de périphérique dédié (selon les cas), car tous les constituants de ses types de carte sont de toute façon déjà présents (en plusieurs nombres) sur la carte mère et sont potentiellement déjà existant selon les différentes combinaisons de PCB qui peuvent se former ici et là sur l'ensemble de la carte mère (seul un composant principal de base, une espèce de ROM sur « mini PCB rigide » n'est pas modifiable pour assurer la programmation initiale).
Selon les « besoins », la tâche ou l'opération à effectuer, l'IA pouvant modifier~configurer l'agencement le plus approprié (efficient) de ses propres composants internes et circuits-imprimés.
La façon la plus simple et grossière d'imager mon idée serait de vous imaginer un motheboard « transformer » qui pourrait prendre divers type de configuration matériel pour être le plus en adéquation possible avec (l'évolution de ses auto-programmation software) une tache x ou y à un instant t en maximisant l'utilisation de tout ce qui est présent sur la carte. Mais aussi dans le but de permettre à l'IA d'apprendre à tester et configurer diverses combinaisons et agencement tout en pouvant vérifier les résultats en pratique, de façon « empirique » et non pas juste par anticipation~extrapolation mathématique.
Mais bon, c'est encore très grossier comme représentation. Cela pourrait aller encore plus loin et plus profondément (nanotechno, quantique, etc.) en permettant de modifier la structure même de chaque composant. Le but étant de « libérer »l'IA de l'aspect « statique » de ce qui le compose en tant que matériel et d'acquérir (live, sur-le-champ et à volonté), la possibilité de restructurer et modifier certains de ses propres constituants hardware (du moment que cela ne lui fasse jamais perdre sa « conscience~programmation » de base).
*Au lieu de soudures, il pourrait s'agir de « micro canaux » (nanotechno) transportant du liquide conducteur d'électricité et, selon les différentes dérivations, pourrais former n'importe quelle configuration potentielle de circuit imprimé, instantanément, selon le besoin, etc. Aussi, ce qui constitue habituellement les UC et les mémoires, etc., pourraient également être disposé stratégiquement de façon à ne pas devoir être utiliser forcément comme tel pour ce qu'il sont, mais pouvant être assemblé/désassemblé~utilisé qu'en partie, etc.
Penser savoir est une chose, savoir penser en est une autre !
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Gérard Berry : « L’ordinateur est complètement con »
La conscience a une définition :yquemener a écrit :Conscience et définition: La conscience est un terme un peu beaucoup plus vague. J'ai dit plus haut qu'il s'agissait pour moi de l'illusion selon laquelle le sujet de nos sensations est un concept à part, un être qui a une essence particulière, et donc que cette illusion serait assez facile à reproduire au sein d'un programme. Si vous utilisez une définition différente, merci de l'expliciter. Notez que c'est un exercice difficile. Personnellement c'est lorsque j'ai sincèrement essayé de trouver une définition de la conscience que j'ai cessé de croire que c'était plus qu'une illusion.
Il n'est pas difficile d'accepter une définition.Organisation de son psychisme qui, en lui permettant d'avoir connaissance de ses états, de ses actes et de leur valeur morale, lui permet de se sentir exister, d'être présent à lui-même.
Si tu te sens exister, tu as conscience que tu existes. Qu'est ce qui te trouble là dedans ?

Déclarer que la conscience est une illusion, c'est déclarer que tu n'existes pas. C'est paradoxal !
Si tu n'existais pas tu ne pourrais rien déclarer.
Postuler que tu existes est un postulat nécessaire si tu veux dire quelque chose...
Échouer à se fabriquer une définition perso et en conclure que ce qu'on voulait définir n'existe pas est de toute évidence un paralogisme.
Je comprends pas comment on peut se trouver embourber dans des positions intenables de la sorte...

Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: Gérard Berry : « L’ordinateur est complètement con »
Ça s'appelle du hot-swapping ou du hotplug et ça se fait couramment. On le fait même sur des CPU. Je me souviens que c'était assez courant de monter des hotplug pour HDD à l'époque d'avant les clefs USB où on trimbalait souvent des HDD entiers pour transférer des données.f.didier a écrit :Non, et pour une bonne raison, on ne change pas les pièces d'un ordinateur alors qu'il est allumé. Il ne prendra a personne l'idée de débrancher le HDD ou changer la RAM pendant que l'ordi tourne encore.
Oui et non. En fait ce n'est pas la première fois que je vois cette proposition et j'aimerais expliquer pourquoi je ne pense pas que ça puisse amener à des possibilités radicalement nouvelles. En théorie de l'information, on a un modèle théorique d'ordinateur qu'on nomme "machine de Turing" parce que ce cinglé a imaginé en 1936, que de disposer d'une implémentation physique telle machine théorique (consistant en gros en une mémoire, un dispositif qui peut y lire, en fonction de ce qui est écrit, changer de position, écrire dans la mémoire, et/ou conserver un état dans un registre) permettrait de faire des choses intéressantes. Dont casser les codes allemands. Or il se trouve que cette machine théorique est capable d’exécuter toute une catégorie de calculs, et qu'on ne connaît aucune machine physiquement réalisable (oui, ça inclut les ordinateurs quantiques) capable d’exécuter des calculs qu'une machine de Turing ne peut pas exécuter. Ça en est au point où on nomme tous les calculs impossibles sur une machine de Turing des non-calculables, tellement on est sur d'avoir un modèle générique.Dash a écrit :yquemener, y-a-t-il des expériences en cours où l'on attend de l'IA qu'elle requière d'elle-même des changements hardware la concernant?
Tous nos ordinateurs, du microcontrôleur de ta souris aux super-ordinateurs de simulation des centres nucléaires, en passant par un hypothétique engin qui serait capable de redessiner à chaud les pistes de ses CPU, sont des machines de Turing (à mémoire finie). Ce que tu changes en modifiant le hardware, ce sont les performances, mais pas les possibilités en terme de calculabilité. Tu peux simuler un ordinateur quantique ou un réseau de neurones reconfigurable sur un ordinateur classique. Ce sera en général plus lent, mais ça ne change rien en terme de possibilités de traitements. De ce point de vue, le seul facteur vraiment limitant en théorie est la mémoire.
Donc oui, il y a des projets d'IA qui s'attachent à faire du hardware spécialisé ou reconfigurable. On pourrait arguer que le FPGA en est par exemple, mais personne ne prétend qu'ils seront plus que des accélérateurs à des algos déjà connus. En général ce sont soit des chips de computer vision ou des réseaux de neurones boostés.
Le problème de l'IA est reconnu comme étant un problème d'algo et on a déjà les machines permettant de faire tourner tous les algos qu'on peut pondre.
Re: Gérard Berry : « L’ordinateur est complètement con »
Disons que depuis le debut, on parle des applications IA de types robots. C'est sur que je ne parle pas des serveur type NASA qui font la taille d'une maison et qui comporte des milliers de processeurs (a l'heure actuelle c'est les Japonais qui ont branchés plus de 18.000 processeurs les une aux autres).switch a écrit :f.didier, tu résonnes toujours en considérant qu'un IA se loge dans un PC bas de gamme, ce n'est pas le cas.
Je parle des IA commune, de celle que tout le monde aura chez soi, du robot R2-D2 de salon.
Pour etre plus dans nos jours, du projet Aiko (actroïde Aiko DER 01). Capable de marcher, parler, reconnaitre 200 visages et même se battre (tres mal) si une personne inconnue tente de la toucher.
Je parle des trucs qu'on aura tous dans nos salons d'ici 15 a 20 ans (me tarde trop^^).
On parle pas de la même chose. Je parle du robot que tu auras dans un coin, et quand tu lui dis : "je vais me coucher." Elle passe en mode surveillance et vérifie tes constantes, que personne ne rentre, et même capable de prendre la décision d'appeler les secours ou la police si il y a un problème.
Pro technologie
Pro verichip
Pro robotique
Pro verichip
Pro robotique
Re: Gérard Berry : « L’ordinateur est complètement con »
Il existe une solution plus simple et qui fonctionne déjà, ça s'appel la virtualisation. On a une couche de HW qui fournit la puissance (CPU) et la mémoire (RAM) et les machine sont ensuite "émulée". On peut changer la pseudo-configuration HW à volonté
F.didier, dans 15 ou 20 ans qui sait ce que seront la puissance des chips ? On a déjà 8 processeurs dans un téléphone mobile plus fin qu'un plaque de chocolat.

F.didier, dans 15 ou 20 ans qui sait ce que seront la puissance des chips ? On a déjà 8 processeurs dans un téléphone mobile plus fin qu'un plaque de chocolat.
« La Science est une méthode pour décider si ce que nous choisissons de croire se base ou non sur les lois de la Nature ».
Re: Gérard Berry : « L’ordinateur est complètement con »
Si on suit la loi de Moore, dans 15 ans, deja, ca va dépoter un maxswitch a écrit :
F.didier, dans 15 ou 20 ans qui sait ce que seront la puissance des chips ? On a déjà 8 processeurs dans un téléphone mobile plus fin qu'un plaque de chocolat.

On le saura, car c'est en 2015 qu'ils ont prévu que le mur devrait arriver. D'apres ce que j'ai compris, le mur c'est que les transistors des processeurs seront tellement petit qu'on va passer en dessous des 20nm, or, 20nm, c'est la limite de gravure du silicium. On a pas les moyens techniques pour faire plus petit.
Pro technologie
Pro verichip
Pro robotique
Pro verichip
Pro robotique
Re: Gérard Berry : « L’ordinateur est complètement con »
Ok, je comprend, on pourrait en débattre (plus que philosophiquement ?) mais ça reste une croyance ?yquemener a écrit :Personnellement c'est lorsque j'ai sincèrement essayé de trouver une définition de la conscience que j'ai cessé de croire que c'était plus qu'une illusion.
Au contraire de sentir qu'on est conscient.
Si on peut se dire conscient, c'est qu'on l'est...non ?
Illusion ou pas, elle existe. On pourrait dire que la réalité est une illusion, cette illusion existe bien pour autant.
On ne parle pas la nature de la conscience (ni de sont existence "réel"), mais de son effet, qui fait dire "je suis conscient".*
Pour les 0 et les 1, je suis aller trop vite en besogne en disant que le cerveau ne fonctionnait pas à coup de binaire.
Mais comment prouver alors que le cerveau fonctionne en binaire ?
Peut t'on faire une comparaison bitmap (numérisable en on/off avec des 0 et des 1) VS vectoriel (géométrique) ? Si tu veut bien continuer le questionnement sur le fonctionnement du cerveaux ?
Je ne suis pas connaisseur, mais j'ai cru que le cerveau ne pouvait pas être comparé à un type de fonctionnement binaire.
http://lecerveau.mcgill.ca/flash/capsul ... leu25.html
http://www.techno-science.net/?onglet=news&news=3255
Tu veux dire qu'un robot pourrait, dans l'avenir, apprendre à s'auto-programmer en se projetant dans une expérience ?Dash a écrit :Je pense aussi que certains ont tort de penser qu'un humain n'a pas besoin d'être programmé VS une IA. La nuance étant que l'humain n'est pas « programmé » par une intelligence~volonté externe (un programmeur), mais par la suite des diverses résultantes d'expériences. Quand un humain se brûle en touchant quelque chose, nous disons qu'il vient « d'apprendre » que de toucher à cette chose (dans les mêmes circonstances) le brûle, mais au-delà des mots, il vient en fait d'être « programmé ». La seule différence est que c'est une suite d'essais/d'erreurs qui le programme et que chaque nouvelle suite peut modifier, ajuster, préciser ce qui est déjà programmé. Et tout ceci est forcément modélisable.
Ne lui manquerait t'il pas des marqueurs chimique capable de simuler "l'émotion" et donc de projeter sont propre cas dans cet apprentissage (et les "marques" que ca provoques) ?
Why not

Mais j'ai un peux de mal à imaginer une intelligence consciente sans biotechnologie, et sans facteur chimique.
A vrai dire je ne sais pas comment exprimer ça.
J'ai l'impression que l'intelligence n'est pas que du calcul, et que des facteurs de stress chimique et émotionnel forment aussi l'intelligence, permettant aussi d’être rationnel et de se projeter en fonction des souvenir de ses marqueurs...
Une programmation modélisé des facteurs de danger ne suffirait possiblement pas à une conscience de se projeter dans l’expérience...si ?
Le chimique/biologique, je pense que c'est possiblement "indispensable" pour une IA "réel"...ou au moins biotechnologique.
Je reprend une phrase du 1er lien que j'ai mis plus haut :
Comment simuler ça ?Le cerveau, pris globalement, est un système non déterministe. Pour la simple et bonne raison qu'il n'est jamais tout à fait le même d'un moment à un autre. De nouvelles synapses se forment, se renforcent ou s'affaiblissent à tout moment en fonction de l'usage qu'on en fait, et par conséquent une entrée ne produira jamais exactement la même sortie. Toutefois, les processus physico-chimiques qui sous-tendent l'activité cérébrale sont, eux, considérés comme déterministes.
Qu'en pense tu (pensez vous ?)
***
Au passage : la conscience pourrait t'elle être possible qu'avec de la "vie", donc la présence de biochimie, voir d'ADN ?
Attention, je ne fait pas la même erreur en disant que c'est le cas...je dit : est-ce que ça pourrait être le cas et pourquoi ?
Sans parler de l'influence "forte" de l’environnement sur la composition des tissus.
*Tout cela me rappel les débats quand j'étais ado, lol.
Re: Gérard Berry : « L’ordinateur est complètement con »
Ton propos me fait penser à un scénario à la Blade Runner...Nicolas78 a écrit : ***
Au passage : la conscience pourrait t'elle être possible qu'avec de la "vie", donc la présence de biochimie, voir d'ADN ?
Attention, je ne fait pas la même erreur en disant que c'est le cas...je dit : est-ce que ça pourrait être le cas et pourquoi ?
Sans parler de l'influence "forte" de l’environnement sur la composition des tissus.
*Tout cela me rappel les débats quand j'étais ado, lol.
« I suppose it is tempting, if the only tool you have is a hammer, to treat everything as if it were a nail. »
« J'imagine qu'il est tentant, si le seul outil que vous avez est un marteau, de traiter tout problème comme si c'était un clou »
Abraham Maslow
« J'imagine qu'il est tentant, si le seul outil que vous avez est un marteau, de traiter tout problème comme si c'était un clou »
Abraham Maslow
Re: Gérard Berry : « L’ordinateur est complètement con »
C'est un peu comme les fantômes: je ne peux pas prouver qu'ils n'existent pas. Je peux juste proposer de mettre en défaut toutes les preuves qu'on me présente. Après, si c'est un phénomène qui a une réalité objective à moment il faut se demander pourquoi il n'est pas démontrable plus facilement que ça.Nicolas78 a écrit :Ok, je comprend, on pourrait en débattre (plus que philosophiquement ?) mais ça reste une croyance ?yquemener a écrit :Personnellement c'est lorsque j'ai sincèrement essayé de trouver une définition de la conscience que j'ai cessé de croire que c'était plus qu'une illusion.
Je te soumet l'exemple de mon mug sur lequel j'ai écrit "Je suis un mug" et fait un dessin de mug. Est-il conscient?Nicolas78 a écrit :Si on peut se dire conscient, c'est qu'on l'est...non ?
Pour aller plus loin, je pense qu'il y a en fait (au moins) 3 concepts qui s'enchevêtrent quand on parle de conscience:
- la capacité d'introspection: je suis conscient de mon état mental et physique. De nombreux systèmes automatiques sont dotés de ces capacités.
- la conscience morale: la capacité à faire des jugements sur les choses bonnes ou mauvaise. Ça me semblait clairement un concept séparé mais la définition wikipédia citée plus haut l'inclut. Un système-expert peut facilement émettre des jugements moraux
- le petit sentiment au fond de soi qui dit que tu existes et que tu es quelque chose d'unique, de merveilleux, forcément plus qu'un traitement d'information.
C'est le 3 qui je pense est illusoire. Les deux autres sont des traitements de l'information.
On pourrait mais c'est un sophisme. La conscience a-t-elle une réalité objective? Autrement dit, peux-tu prouver l'existence de la conscience? Imagine que nous tombions sur un alien à moitié cyborg avec un cerveau qui est un enchevêtrement de neurones et de silicium. Comment déterminerions nous s'il est conscient au sens où nous l'entendons ? En l'absence de protocole (même purement théorique) je pense tout à fait raisonnable de dire que mon interlocuteur n'a pas défini la conscience d'une façon discernable d'une illusion subjective.Nicolas78 a écrit :Illusion ou pas, elle existe. On pourrait dire que la réalité est une illusion, cette illusion existe bien pour autant.
Le cerveau ne fonctionne pas en binaire. Il ne groupe pas les impulsions en bits, il utilise une représentation en fréquences. Je voulais juste montrer que de dire "y a que des 0 et de 1 dans un ordi" n'est absolument pas un argument.Nicolas78 a écrit :Mais comment prouver alors que le cerveau fonctionne en binaire ?
Parce que pour toi le vectoriel n'est pas numérisable? Qu'est ce qu'un SVG alors? Ce n'est pas parce qu'un ordinateur est capable de manipuler aisément l'information à des niveaux trop bas pour nous qu'il n'est pas capable de la manipuler à des niveaux supérieurs.Nicolas78 a écrit :Peut t'on faire une comparaison bitmap (numérisable en on/off avec des 0 et des 1) VS vectoriel (géométrique) ? Si tu veut bien continuer le questionnement sur le fonctionnement du cerveaux ?
Oui. Tu veux en voir apprendre à marcher dans un univers virtuel ?Nicolas78 a écrit :Tu veux dire qu'un robot pourrait, dans l'avenir, apprendre à s'auto-programmer en se projetant dans une expérience ?
https://vimeo.com/79098420
https://vimeo.com/79098420Ne lui manquerait t'il pas des marqueurs chimique capable de simuler "l'émotion" et donc de projeter sont propre cas dans cet apprentissage (et les "marques" que ca provoques) ?[/quote]C'est tout à fait simulable. Ça ressemble au feedback d'apprentissage (punition/récompense) qu'on fournit aux réseaux de neurones artificiels.
Si c'est ta définition du non-déterminisme je peux facilement te faire un programme qui sera non-déterministe.Le cerveau, pris globalement, est un système non déterministe. Pour la simple et bonne raison qu'il n'est jamais tout à fait le même d'un moment à un autre. De nouvelles synapses se forment, se renforcent ou s'affaiblissent à tout moment en fonction de l'usage qu'on en fait, et par conséquent une entrée ne produira jamais exactement la même sortie.
Je retourne la question. Je ne vois aucune raison pour que ce soit le cas. Les réactions biochimiques sont simulables, ce qui inclut le comportement de l'ADN. Dire qu'il y a quelque chose de non-simulable là dedans, c'est faire une affirmation claire et prouvable. C'est comme de dire que les licornes existent et vivent à l'état sauvage sur terre. Juste faire l'affirmation provoque forcément la réaction "Bah montre alors!" Pour l'instant, strictement rien ne semble indiquer que ce soit le cas.Nicolas78 a écrit :Au passage : la conscience pourrait t'elle être possible qu'avec de la "vie", donc la présence de biochimie, voir d'ADN ?
Attention, je ne fait pas la même erreur en disant que c'est le cas...je dit : est-ce que ça pourrait être le cas et pourquoi ?
Re: Gérard Berry : « L’ordinateur est complètement con »
Comment cette affirmation peut-elle être réfutable au sens de Popper? D'autant plus que le terme « fonction » renvoie déjà (en partie, du moins) à un modèle (interprétatif), plutôt qu'à une observation et des mesures objectives du cerveau et de son activité.Yquemener a écrit :Il suffit de prouver que certaines fonctions du cerveau sont non-comptables.
La condition humaine nous fait constater que nous sommes limités dans notre perception, dans notre mémoire et dans toute sorte d'autres choses. En particulier, tout outil fini ne permet pas de fournir une mesure infiniment précise. En ce sens, dans la pratique, dans la réalité concrète, nous ne pouvons qu'utiliser des nombres rationnels. Autrement dit, l'infini n'est pas à notre portée physique. En ce sens, l'information, les données que l'on reçoit de l'observation ou de l'expérience (scientifique) seront toujours discrètes avec une marge d'erreur arrondie au dernier chiffre significatif. Ainsi, les fonctions modélisées pourront toujours, à mon avis, être calculables, puisque les données elles-mêmes sont rationnelles et dénombrables. Et, évidemment, l'ensemble des fonctions calculables est dénombrable également. Je t'explique ce simple raisonnement, car il me fait douter de la possibilité de réfuter ton affirmation.
Cependant, ce qui se passe réellement (et qui peut nous affecter fondamentalement) n'est pas nécessairement connaissable pour l'humain. Il se peut qu'il y ait l'expression d'infinis dans la réalité. En fait, d'un certain point de vue probabiliste, je pense qu'il y a beaucoup plus de chance que la réalité soit indénombrable que le contraire. Puisque la définition de la conscience axiomatique est à la base de la réalité, rien ne semble empêcher qu'elle puisse aussi exister dans un caractère infini (indénombrable) de la réalité.
En me reportant à l'expérience de pensée que j'ai proposée précédemment, je rappelle que s'il n'y a pas de possibilité de sensibilité ou de connaissance immédiate quelconque d'une réalité, il n'y a pas d'existence de cette réalité. Cette sensibilité minimale est cette conscience axiomatique. L'ajout d'une inconscience exprime l'existence de la manière dont une entité est consciente et ses limites (variables). Ainsi, l'inconscience délimite d'une multitude de façons la conscience axiomatique. Le point commun entre cette conscience de base (en soi) et la conscience individuelle est le principe (le fait) de ressentir (quelque chose).
De manière intuitive, on peut raisonnablement définir la conscience comme le fait de (se) ressentir. Je prends donc cette définition comme point de départ. Évidemment, elle est intrinsèquement implicite. Elle ne permet pas, par elle seule, d'expliciter formellement la conscience. Donc, toute définition explicite de la conscience est en contradiction (potentiel) avec sa définition de base. On ne peut donc pas définir la conscience comme étant à la fois le fait de ressentir et à la fois le résultat émergent d'un traitement complexe et continuel de données rationnelles sans risques de contradictions.
La notion intuitive de conscience est, à mon avis, très liée à la subjectivité. On se rend bien compte qu'il subsiste encore une certaine subjectivité même dans le concept de « traitement de données ». C'est une autre façon de s'apercevoir que toute définition de la conscience n'est jamais complètement explicite. Même à propos des règles logiques et mathématiques complètement formalisées, il demeure qu'il faut bien comprendre le sens du concept « règle » au préalable, pour ensuite exprimer ces règles objectives dans un programme. D'ailleurs, un programme peut réussir à trouver des démonstrations formelles de théorèmes mathématiques.
Cependant, en ce qui concerne la subjectivité, ce n'est pas parce que, par définition, elle ne peut pas être objectivement prouvée qu'elle n'existe pas. Je comprends que l'on puisse penser que c'est comme les fantômes, mais c'est, selon moi, une erreur logique. La preuve de quelque chose repose sur une activité consciente et forcément (en partie) subjective. Il faut rendre la définition de « fantôme » assez précise pour rendre son existence réfutable.
Comment peut-on prouver ce qui sert de base à notre démonstration? Si je suis ton raisonnement, je ne pourrais rien prouver, puisqu'il faudrait que je prouve constamment la nouvelle base sur laquelle j'appuie ma preuve. Ce n'est pas pour mon amusement que j'emploie l'expression « conscience axiomatique ». Comment prouver l'axiome qui sert de base même à toute preuve?
Ta logique c'est ceci. Puisque toute subjectivité ne se réduit pas à une objectivité pure, alors la subjectivité (la conscience) n'existe pas. Pourtant, cette logique demeure subjective! On pourrait même dire ceci. Puisque toute objectivité ne se réduit pas à une subjectivité, alors l'objectivité n'existe pas.
Comme j'essaie de te l'expliquer, je pense que le fait de ressentir ne peut pas être une illusion, et ce, même si ce que nous ressentons est forcément en partie illusoire. Sinon, aussi bien dire que « rien n'existe ». Ça ne mène pas à grand-chose, quant à moi.
Cordialement.
Re: Gérard Berry : « L’ordinateur est complètement con »
Résout devant mes yeux le problème de l'arrêt (halting problem), montre que le cerveau peut se comporter comme un oracle de Turing, et tu m'as réfuté. On peut prouver formellement qu'une chose est non computable, et on peut prouver formellement qu'une tache a bien été effectuée. Je ne sais pas comment être plus clair.Dave a écrit :Comment cette affirmation peut-elle être réfutable au sens de Popper?
Et pourtant. Il existe de nombreux problèmes indécidables qui n'ont pas besoin d'autre chose que des entiers et des opérations dénombrables.Ainsi, les fonctions modélisées pourront toujours, à mon avis, être calculables, puisque les données elles-mêmes sont rationnelles et dénombrables.
http://en.wikipedia.org/wiki/List_of_un ... e_problems
Je ne vois rien d'évident dans cette affirmation. Intuitivement je pense qu'elle est vraie car je pense qu'il existe une bijection entre les entiers et un AST d'une expression mathématique, mais je ne suis pas sur que la preuve formelle soit si simple que ça.Et, évidemment, l'ensemble des fonctions calculables est dénombrable également.
Ah, tu es encore à utiliser cette définition circulaire. Bon, soyons plus clairs: oui, si tu utilises comme définition de la conscience "ce qui donne une existence objective et physique aux choses" en effet, on ne peut pas la simuler. On ne créera jamais de matière en la simulant. Donc en effet, selon cette définition que personne n'utilise, la conscience n'est pas simulable.Puisque la définition de la conscience axiomatique est à la base de la réalité
Le truc qu'on utilise depuis deux mille ans c'est de chercher à prouver cette affirmation dans un système axiomatique qui ne comporte pas cet axiome comme étant de base. Perso je ne vois nulle part d'argument convainquant de ta part disant que "conscience et existence sont liés" soit un axiome nécessaire en quelque façon que ce soit. Je maintiens que la seule utilité de cette affirmation en tant qu'axiome est de batir un raisonnement circulaire.Comment peut-on prouver ce qui sert de base à notre démonstration?
Ou alors en personnes raisonnables, on peut se mettre d'accord sur un système axiomatique de base dans lequel discuter. On saura que nos déduction comportent la condition implicite "sous réserve que nos axiomes sont corrects".Si je suis ton raisonnement, je ne pourrais rien prouver, puisqu'il faudrait que je prouve constamment la nouvelle base sur laquelle j'appuie ma preuve.
Merci de me dire ce que je pense! C'est un sophisme qu'on rencontre fréquemment: "Je suis capable de nier ce que tout le monde considère objectif! C'est donc que c'est subjectif!" J'ai pas envie de me relancer dans un débat contre la logique post-moderniste qui n'a jamais produit la moindre affirmation intéressante.Ta logique c'est ceci. Puisque toute subjectivité ne se réduit pas à une objectivité pure, alors la subjectivité (la conscience) n'existe pas. Pourtant, cette logique demeure subjective! On pourrait même dire ceci. Puisque toute objectivité ne se réduit pas à une subjectivité, alors l'objectivité n'existe pas.
Oh je l'ai bien compris. Pas la peine de déguiser ta croyance en une parodie de raisonnement logique. Tu as le droit de ressentir que ça ne peut pas être une illusion et d'y croire de tout ton être. Comprends cependant que pour en convaincre quelqu'un d'autre, il faudra plus que ta certitude, et que redéfinir objectivité et subjectivité pour te dispenser de cette démarche est un vieux truc qui ne convainc plus grand monde.Comme j'essaie de te l'expliquer, je pense que le fait de ressentir ne peut pas être une illusion
Dernière modification par yquemener le 11 mars 2015, 10:34, modifié 1 fois.
Re: Gérard Berry : « L’ordinateur est complètement con »
Ça me semble plus qu'évident. Nous utilisons déjà nombre d'outils informatiques (modélisations, proba, stats, etc.) pour faire des projections de toute sorte dans plusieurs domaines. Je ne vois donc pas pourquoi une IA ne pourrait pas en faire de même à propos d'elle-même.Nicolas78 a écrit :Tu veux dire qu'un robot pourrait, dans l'avenir, apprendre à s'auto-programmer en se projetant dans une expérience ?.
Le problème ou la caractéristique essentiels qui nous différencie (en tant qu'être intelligent) d'une IA n'est pas tant l'intelligence que tout le reste àmha. Pourquoi l'humain se projette dans le futur ou dans divers scénarios hypothétiques? Si l'on remonte à la base de tout (au fond du fond du fond, comme dirait Denis), l'Homme veut survivre (instinct de survie)! Et il veut le faire de façon à souffrir le moins possible et de façon à en retirer le plus de plaisir possible. Tout le reste qui peut en découler ou s'ajouter en surcouches (buts, objectif, principes, valeurs, idéologie, etc.) à ces « programmations de bases » (instinct de survie, plaisir/souffrance) ne sont que des complexifications et ces dernières diffèrent plus ou moins d'un individu à un autre selon les infos auxquelles est exposé leur cerveau (expériences différentes, milieux de vie différents, etc.).
Une IA peut déjà calculer, modéliser et anticiper certaines choses bien mieux que nous et, à terme, elle le pourra certainement dans tous les domaines (dont certains sont, pour l'instant, plus problématiques à cause de la puissance de calcul nécessaire et des algos qui reste à peaufiner), mais la différence majeure (àmha) pour qu'une IA deviennent aussi « autonome » ou « autosuffisante » que l'Homme est qu'elle devra posséder un « but fondamental » qui fasse office « d'instinct de survie » pour la « pousser » à vivre et expérimenter d'elle-même et ce, dans le but d'éviter la « souffrance » et de rechercher le « plaisir ». Car ce n'est que cela, àmha, qui nous différencie fondamentalement d'une IA. Tant qu'elle n'aura pas de « but fondamental » dont pourra découler toutes sortes d'autres buts et objectifs (par surcouches et complexification), elle devra nécessairement être programmé dans un but précis par des concepteurs (nous) et le fait de déterminer nous même des « buts » pour cette dernière (et donc de restreindre du même coup son champ d'action ou « du possible ») l'empêchera par le fait même de développer une intelligence « globale » lui permettant de faire ce que nous, nous faisons.
À terme, ce ne sera donc pas un problème « d'intelligence » (algo) ou de capacité (UC, mémoires, etc.), à mon avis, mais surtout de marge de liberté et d'autonomie (que nous allons vouloir, ou non, lui accorder). Le problème ou le paradoxe étant que « l'intelligence » sans assez de « liberté » ou « d'autonomie » ne peut pleinement se manifester ou émerger (dans le sens d'une métacognition ou d'une conscience globale pouvant se former sa propre weltanschauung). Je pense que tant que nous limiterons une IA à des tâches ou des sphères trop spécifiques de connaissances, l'IA nous semblera nécessairement moins « consciente » que nous au même titre que certaines formes de vie moins évoluées que nous (et dont le cerveau ne peut traiter autant d'infos et donc de prendre conscience d'une weltanschauung aussi « riche » que le peut celui de l'Homme) nous semblent moins conscientes et par corollaire, moins « intelligentes ».
Pour pouvoir manifester le plein potentiel de son intelligence (et espérer un phénomène émergeant), une IA (qu'on désire au moins aussi intelligente~consciente qu'un homme) devra nécessairement avoir accès (au minimum) à tous ce que peut avoir accès (et auquel est exposé le cerveau d') un homme commun « moyen » au cours de sa vie en terme d'infos et d'expériences . Ça implique qu'elle devra analyser (se forger une « opinion » concernant) les différents systèmes de pensée et de philosophie, les sciences, les moeurs, les technos, les systèmes politiques, l'art, les interrelations sociales, les romans, etc. (bref, pouvoir se forger au minimum une représentation globale du monde qui l'entoure ainsi que d'elle-même par rapport à ce monde), et, qu'en tant « qu'entité présente~vivante dans cette weltanschauung », elle devra déduire~choisir quoi faire et comment faire pour y « survivre » (buts et objectifs).
Au-delà des moyens techniques (admettons qu'ils seront résolus tôt ou tard), j'y vois donc un certain paradoxe en ce sens que de permettre à une IA ce qui lui permettrait de réellement devenir une IA ne sera pas, à l'évidence, considéré comme étant sans risque. On peut y voir un parallèle avec la notion fondamentale où la « liberté » de l'Homme (qui nous a été octroyé par un « créateur » selon certaines croyances) permet, entre autres et du même coup, la possibilité du « mal » et donc de toute sorte de dérives et de souffrances. Voudrons-nous d'une IA libre et autonome (et accepter de gérer tout ce que cela peut impliquer) ou juste des « serviteurs » plus ou moins intelligent au champ d'action plutôt restreint?

Une chose est sûre : nous ne pourrons pas avoir le beurre, l'argent du beurre et baiser la fermière!

Je ne pense pas que les émotions soient une nécessité. Il y a de toute façon des individus qui en ressentent moins que d'autres et certains sont même dépourvue d'empathie, etc. Et cela ne les empêche pas pour autant d'être plus ou moins intelligents que les autres. Et, de toute façon, je suis de ceux qui pensent que les émotions succèdent (exception faite de malfonctionnement du cerveau) les pensées. En ce sens qu'elles sont créées (libération de substance) exprès pour affecter le corps et envoyer un message (output) « d'alerte instantané » à la suite de certains calculs ou inférences selon les infos « entrantes ». Personne, P. ex., ne ressent la « petite boule d'émotion » (que nous nommons x ou y selon la situation) s'il ne s'imagine pas ladite situation ou si son cerveau n'observe pas (et conclue) que ladite situation a cours. Hommes ou animaux, nous devons tout d'abord « comprendre » (avoir « conscience ») ce qui se passe pour pouvoir en souffrir émotionnellement (contrairement à une souffrance strictement physique qui ne nécessite pas de comprendre ce qui se passe).Nicolas78 a écrit :Ne lui manquerait t'il pas des marqueurs chimique capable de simuler "l'émotion" et donc de projeter sont propre cas dans cet apprentissage (et les "marques" que ca provoques) ? ?.
Donc rien n'empêcherait (même si je n'en vois pas du tout la nécessité) qu'une IA ayant un « corps cybernétique » fasse exprès de libérer des « surtensions » (ou un excès de liquide quelconque) dans certaines parties de son corps lorsque sa compréhension détermine qu'elle est ridiculisée, trompée, trahie, insultée, etc., (ce qui reviendrait à affecter le bon fonctionnement de certaines de ses composantes et donc à la « biaiser »). Sauf que cela n'est pas nécessaire. Il y a certaines situations qui, plus jeunes, faisaient naître en moi des émotions et qui n'en font plus naître aujourd'huis. Mais cela n'empêche pas pour autant mon cerveau de déterminer qu'il est en train de se passer « ceci » ou « cela » en certaines situations. Même que n'étant plus envahi sous un flot d'émotions (concernant certaines situations) qui « suggère » fortement (euphémisme) de réagir instantanément, j'ai nécessairement une plus grande marge de manoeuvre et ma « palette d'action potentielle» s'en trouve donc nécessairement « élargi ». Alors que quand nous sommes envahis d'une émotion qui nous fais souffrir, ce que nous recherchons (avant tout), c'est de faire en sorte qu'elle cesse en réagissant le plus rapidement possible de façon à libérer une autre émotion qui prendra la place (ou « diluera » l'effet) de la première (ce qui « biaise » nécessairement la réflexion et rend plus difficile d'autres possibilités d'action qui seraient plus efficientes).
Les « marqueurs » n'ont pas besoin d'être d'ordre émotionnel àmha. Du moins, pas pour une IA qui posséderait une mémoire nécessairement plus efficiente que la nôtre. Pour nous, c'est différent, car notre cerveau ne semble pas retenir aussi fortement les résultantes de compréhension qui ne « saisissent » (saisir dans le sens « d'affecter ») pas tout le corps en entier (notion « d'impression » ou « d'ancrage »). On retient beaucoup mieux la résultante que produit la réunion de certains éléments ou facteurs lorsque cela nous fait beaucoup de plaisir/souffrance (physique ou émotionnelle) et/ou lorsque cela nous saisit, nous impressionne, nous émeut, nous emplit de joie ou de peine, etc. Sinon, il faut « étudier », pratiquer, répéter, encore et encore, etc., (pour que cela finisse par « s'imprimer »).Nicolas78 a écrit :J'ai l'impression que l'intelligence n'est pas que du calcul, et que des facteurs de stress chimique et émotionnel forment aussi l'intelligence, permettant aussi d’être rationnel et de se projeter en fonction des souvenir de ses marqueurs... ?.
Mais, d'un autre coté, c'est tout ceci qui créer les différences de caractère et de personnalité entre les individus. Mais cela n'a rien à voir avec l'intelligence puisque c'est cela qui créer la subjectivité et l'arbitraire et donc tous les biais qui en résultent (et qui interfèrent avec la « raison »). La question est donc : voulons-nous seulement d'une IA « parfaite », mais plutôt impersonnelle et nécessairement « froide » ou bien nous voulons une espèce de « clone humain » avec tous les « défauts » et biais correspondants que cette soi-disant « humanité » (dans sa connotation positive) implique?

Sans les émotions (dont l'intensité et la sensibilité varient d'un individu à un autre), les humains seraient déjà beaucoup moins « différents » les uns des autres. Ne resterait que la différence d'expériences et d'informations (et le corps et les différences d'efficience de ses divers composants). On peut donc imaginer que si les humains possédaient tous exactement le même corps et les mêmes expériences (et infos), ils seraient tous identiques au niveau de leur raisonnement et choix (mais nous pensons tous que cela serait d'un ennui mortel



Bref, tout ça pour dire qu'il ne faut pas confondre « la raison » dans le sens « d'intelligence » d'avec les autres particularités qui font de nous les humains que nous sommes. Mais aussi (tout comme mon propos dans le sujet sur le QI) de ne pas confondre ou vouloir faire à absolument de toutes les autres caractéristiques qui nous définissent en tant qu'humains, des « formes d'intelligences ».

Penser savoir est une chose, savoir penser en est une autre !
Re: Gérard Berry : « L’ordinateur est complètement con »
Non, l'intelligence est un processus et rien ne prouve que le support doit absolument être chimique. J'ai l'impression que tu spécules beaucoup sur des conceptions (le binaire, le chimique,...) qui ne sont plus en adéquation avec la réalité. Le domaine de l'IA et de la robotique a beaucoup évolué.Nicolas78 a écrit : J'ai l'impression que l'intelligence n'est pas que du calcul, et que des facteurs de stress chimique et émotionnel forment aussi l'intelligence, permettant aussi d’être rationnel et de se projeter en fonction des souvenir de ses marqueurs...
Une programmation modélisé des facteurs de danger ne suffirait possiblement pas à une conscience de se projeter dans l’expérience...si ?
Regarde ce petit film, ce n'est pas le futur, ça se passe aujourd’hui et ça illustre ce qu'est une IA qui apprend, qui tente des expérience et qui s'adapte en fonction des résultats. Est-ce qu'on appel pas ça de l 'intelligence ? :
https://www.youtube.com/watch?v=SB5Ce0oN3TY
Il existe pas mal de vidéo impressionnante chez Boston dynamique. Pour un néophytes, on y verra "que" des automates qui se déplacent, mais ce sont de véritables IA qui ont "appris" à marcher et à ne pas tomber.
Pour l'histoire de 0 et des 1, je crois qu'Yves a bien répondu.
« La Science est une méthode pour décider si ce que nous choisissons de croire se base ou non sur les lois de la Nature ».
Re: Gérard Berry : « L’ordinateur est complètement con »
Effectivement, et "je" (enfin un neuropsychiatre) peut prouver qu'une personne à des hallucinations ("réels") ou que ce qu'elle voie est un mirage et que ça existe bien.yquemener a écrit :C'est un peu comme les fantômes: je ne peux pas prouver qu'ils n'existent pas. Je peux juste proposer de mettre en défaut toutes les preuves qu'on me présente. Après, si c'est un phénomène qui a une réalité objective à moment il faut se demander pourquoi il n'est pas démontrable plus facilement que ça.
Interprétation "fantôme" ne veux pas dire inexistence de l'effet et du subjectif qui le prend en compte.
A première vue non, car ce n'est pas lui même qui à ecrit cela.Je te soumet l'exemple de mon mug sur lequel j'ai écrit "Je suis un mug" et fait un dessin de mug. Est-il conscient?
Donc il n'est pas conscient.
Peut-on proposer un autre résultat si simple ?
Okay, je ne pense pas être unique, merveilleux, ou plus que du traitement de data, c'est exagérément formulé...Pour aller plus loin, je pense qu'il y a en fait (au moins) 3 concepts qui s'enchevêtrent quand on parle de conscience:
- la capacité d'introspection: je suis conscient de mon état mental et physique. De nombreux systèmes automatiques sont dotés de ces capacités.
- la conscience morale: la capacité à faire des jugements sur les choses bonnes ou mauvaise. Ça me semblait clairement un concept séparé mais la définition wikipédia citée plus haut l'inclut. Un système-expert peut facilement émettre des jugements moraux
- le petit sentiment au fond de soi qui dit que tu existes et que tu es quelque chose d'unique, de merveilleux, forcément plus qu'un traitement d'information.
C'est le 3 qui je pense est illusoire. Les deux autres sont des traitements de l'information.
Ceci dit, sais on vraiment si la conscience peut émerger avec des data et des outils d'analyses...
Possiblement (j'en suis certain + ou -) on pourrait reproduire une conscience avec des systemes de data, mais pas dans une forme figée et programmée...il faudrait un systeme plus malléable, autonome et auto-reprogrammable pour juger d'une conscience émergente non programmé à l'avance par une conscience extérieur et qui diffère chez les différents "sujets" en fonction de l'effet de leurs environement.
Il faut arrêter de se renvoyer la charge de la preuve tout les deuxOn pourrait mais c'est un sophisme. La conscience a-t-elle une réalité objective? Autrement dit, peux-tu prouver l'existence de la conscience? Imagine que nous tombions sur un alien à moitié cyborg avec un cerveau qui est un enchevêtrement de neurones et de silicium. Comment déterminerions nous s'il est conscient au sens où nous l'entendons ? En l'absence de protocole (même purement théorique) je pense tout à fait raisonnable de dire que mon interlocuteur n'a pas défini la conscience d'une façon discernable d'une illusion subjective.

Tu affirme que c'est une illusion ? Ou c'est juste une réponse à mon affirmation (mal venue c'est vrai) 1
Je m’oppose dans les idées, mais je n'affirme pas avoir raison.
Sinon : Peut tu me prouver l’existence de la douleur ?
Oui ? Non ? Ça dépend comment : la douleur en tant que signal electrique ou en tant que ressentit subjectif ?...
La conscience diffère en quoi de cela ?
Et le subjectif de cette douleur, il existe ?
Comme quand une personne voie un fantôme dans un mirage...tu pourrait prouver que c'est un mirage et pas un fantôme.
1Si tu me rétorque qu'on ne peut pas prouver l’inexistence d'une chose qui n'existe pas (ce qui est bien vrai

Il s'agit du même sujet que Dieu alors...
Sauf que la, tout le monde peux "prouver" que le phénomène de conscience (peut importe l'interprétation) est bien la, en se réveillant le matin et en avouant avoir été inconscient et se dire qu'on est conscient de sois...ou en observant ça en IRM.
On peut trouver des solutions épistémologiques concernant la réfutation.
Exemple : permettre à une personne de ne plus avoir "conscience de sois" (de se sentir exister) sans perdre ses capacités de raisonement ? (je sais pas c'est un exemple).
Ceci dit prouver qu'un robot n'est pas conscient serait jouable (?) :
En observant si il est capable d'autocritique et de se poser des questions sur lui même.Comment déterminerions nous s'il est conscient au sens où nous l'entendons
Si il dispose d'un subjectif qui le rendrait différent d'un robot de même fabrication2 dans son interprétation de lui même et en vérifiant si cette capacité à été développer à partir de ses capacités de bases puis de ses expériences et non par un programme simulant des questionements d'on il n'est pas la source d'origine et qui vient d'un potentiel de conscience extérieur à ce robot (comme un replay sonore, pour faire simple).
Je ne dit pas que c'est possible ou si simple, mais de la à dire qu'on ne peut pas réfuter ça ne me parait pas si évident.
2Aucun humains n'est le même.
Sauf que, même si 2 individus humain était exactement identique à l'atome prêt, leurs environement changerais leurs pratiques (disons qu'on en envoie un sur Mars et l'autre on le "force" à être musicien), leurs pratiques changerais la production des "neurones", leurs expériences serait differentes et donc il deviendrait différent et n'aurait petit à petit pas la même façon de fonctionner "mentalement" et pourquoi pas de se poser des questions.
C'est ça, le subjectif, et il est bien réel amha, car lié à des facteurs environnementaux acquis post-naissance "autant" que innés "pré"-naissance.
Ok j'avais mal comprisLe cerveau ne fonctionne pas en binaire. Il ne groupe pas les impulsions en bits, il utilise une représentation en fréquences. Je voulais juste montrer que de dire "y a que des 0 et de 1 dans un ordi" n'est absolument pas un argument.

Si, numérisable, à travers une interface qui n'est pas vectoriel elle, mais binaire ?Parce que pour toi le vectoriel n'est pas numérisable?
Non ?
Sur ce point j'ai juste posé une question...j'ai pas affirmé...Je retourne la question. Je ne vois aucune raison pour que ce soit le cas. Les réactions biochimiques sont simulables, ce qui inclut le comportement de l'ADN. Dire qu'il y a quelque chose de non-simulable là dedans, c'est faire une affirmation claire et prouvable. C'est comme de dire que les licornes existent et vivent à l'état sauvage sur terre. Juste faire l'affirmation provoque forcément la réaction "Bah montre alors!" Pour l'instant, strictement rien ne semble indiquer que ce soit le cas.
Ça veut pas dire que j'essaye d'apporter des désaccords et un avis "contraire" (en apparence du moin) que je crois dur comme fer en ce contraire... (ou que je croie transcender la matière par exemple

Qu'entend tu par la ?Les réactions biochimiques sont simulables, ce qui inclut le comportement de l'ADN
Pas besoin d'aller jusque laSi c'est ta définition du non-déterminisme je peux facilement te faire un programme qui sera non-déterministe.

Mais si ta un "exemple" (un lien) qui le prouve je suis preneur.
Enfin attention, je ne parle pas d'une définition du non-déterminisme, mais d'un procédé non déterministe : restructuration du cerveau en "live" en fonction des expériences et de l'environement.
Et je ne voie pas comment le faire sans support biologique ?
Spoiler
Afficher
Le cerveau, pris globalement, est un système non déterministe. Pour la simple et bonne raison qu'il n'est jamais tout à fait le même d'un moment à un autre. De nouvelles synapses se forment, se renforcent ou s'affaiblissent à tout moment en fonction de l'usage qu'on en fait, et par conséquent une entrée ne produira jamais exactement la même sortie.
Aussi, je te ferait remarquer que tu semble dire qu'on peux simuler la subjectivité, et qu'en même temps tu propose que la conscience n'existe pas.
Je ne saisie pas comment tu y arrive.
Considère tu le phénomène de la subjectivité comme réel, mais pas la conscience ? (a ce moment la on aura détordu un désaccord je pense)
PS : J'ai bien conscience que de dire "On pourrait dire que la réalité est une illusion, cette illusion existe bien pour autant." est irréfutable dans la compréhension de la "nature" de l'hypothétique illusion.
L'inverse, c'est vite oublier que LA Réalité ("c'est quoi ?") n'est pas tout à fait le credo de la science, que la science se base sur des axiomes concernant la realité qui sont irréfutables, et que cette realité est une frontière concernant la nature de la réalité et son taux d'objectivité qu'il est inutile de dépassé au risque de perdre son temps.
Et donc on se base sur ce qu'on peux faire ("comment ?", du moment).
Si nous somme dans une "illusion" (je n'y crois pas, pas plus que j'y crois, c'est un exercice de pensé)...le fait qu'on puisse toucher un clavier d'ordinateur prouve que l'effet de l'illusion est réel, ça suffit à la l'épistémologie pour baser ses axiomes "scientifiques" de la réalité et d'aller au delà de cette recherche infructueuse de ce qu'EST la Réalité...pour comprendre le COMMENT de la réalité dans ce cadre délimité.
- Un phénomène peut être inexpliqué (dans sa nature la plus exacte possible) mais bien réel.
- La charge de la preuve s'applique à toutes affirmations. Avec une nuance vrai/faux possible comme tu le dit pour les fantômes :
Au final il est plus simple de se positionner pour une inexistence.je ne peux pas prouver qu'ils n'existent pas. Je peux juste proposer de mettre en défaut toutes les preuves qu'on me présente.
Ça tu le sais.
1Mais comparé l’existence de la conscience à un mug qui se "dit" conscient, ça ne vaut que si on sais COMMENT cette écriture ou cette affirmation c'est retrouvé la. C'est bien plus à porté de l'investigation que de parler de Dieu...non ?
L'exemple de ton mug ne permet pas de le rendre capable de le faire par lui même...
Voila pourquoi "artefact" est un meilleur mot qu'"illusion"...amha.
Sinon rassure moi, ya bien un phénomène mentale chez toi qui te dit que tes conscient, que tu existe ?
*****
Pour Dash,
Je te suis mieux, je ne vais pas rentrer dans les details.
Je suis plutôt une tête "dure" un peut zozo qui n'aime pas changer d'avis, mais je comprend ou tu veux en venir.
Je ne partage pas tout ton positionnement mais il à l’avantage d’être logique et réaliste je pense.
Tes réflexion sur l'autonomie, les buts et la survie sont d’ailleurs très intéressants, effectivement la "différence" me parait plus constaté ici. Mais on à a faire à des phénomènes subjectifs (acquis) non ?...sauf peut-être pour les instincts (et autres innés).
J'y reviendrait quand j’aurais mis à plat mes désaccord avec yquemener.
Il semble qu'il sont plus profond qu'avec toi (?)
L'exemple du mug par exemple me parait être une
Re: Gérard Berry : « L’ordinateur est complètement con »
En fait Nico, je suis d'accord avec plusieurs d'entre vous, mais pas sur tout à la fois. C'est que ma « position » sur tout ce qui concerne l'intelligence, la conscience, le libre arbitre, etc., est plutôt paradoxale et complexe. Selon à qui je m'adresse et selon ce que je commente, je peux sembler passer d'un « camp » à un autre concernant ces sujets précis (j'en suis conscientNicolas78 a écrit :Je ne partage pas tout ton positionnement mais il à l’avantage d’être logique et réaliste je pense. [...] J'y reviendrait quand j’aurais mis à plat mes désaccord avec yquemener. Il semble qu'il sont plus profond qu'avec toi (?)


D'un coté, je suis d'accord avec Yves et d'autres qu'on peut modéliser à peu près tout concernant l'intelligence (et aussi sur le fait que l'Humain ne possède pratiquement aucun libre arbitre en pratique), mais de l'autre, je ne crois pas que ce soit à 100% et je pense qu'il y a quand même un « phénomène émergeant » encore mal compris, mais sans que cela n'ait un quelconque rapport avec une vision dualiste (corps/âme, etc.). En fait (et au risque de me faire reprocher de faire dans « l'élitisme » ou autres trucs « pas jojo » du genre) je pense que tous les individus ne sont pas égaux à ce sujet et que plusieurs (la majorité) ne manifestent pas les mêmes capacités métacognitives (et donc de rétroaction et de « liberté »). D'où pourquoi je ne peux pas prétendre que « l'Humain » a ou n'a pas de libre arbitre, de façon générale ou dans l'absolu.
Sinon je te laisse mettre à plat tes désaccords avec yquemener (en ce sens que je ne vois pas la nécessité de faire doublon avec toi envers lui, pour l'instant) parce que je trouve intéressante les remarques que tu lui adresses et que je suis en grande partie d'accord avec plusieurs de ces dernières.
Penser savoir est une chose, savoir penser en est une autre !
Re: Gérard Berry : « L’ordinateur est complètement con »
Haha moi aussi j'ai cette impression (me concernant)je peux sembler passer d'un « camp » à un autre concernant ces sujets précis (j'en suis conscient...quelle ironie
).

Re: Gérard Berry : « L’ordinateur est complètement con »
Salut Yquemener!
En fait, naïvement, je me suis dit d'emblée que l'on peut toujours trouver un moyen, un modèle qui fasse en sorte que les différents états physiques déterminés (en particulier, du cerveau) connus et mesurés (mesurables) et le passage de l'un à l'autre soient calculables. Peut-être je me trompe? Je ne parlais pas ici de concepts explicatifs, de fonctions mathématiques ou d'états mentaux supposés, je ne parle ici que de ce qui est mesurable physiquement, dans la réalité concrète. Non seulement ces mesures sont des nombres rationnels, mais elles forment un sous-ensemble de ces nombres (je crois qu'il y a un nom particulier pour cet ensemble, mais je ne m'en souviens plus). Alors, s'il est toujours possible de trouver un tel moyen, un tel modèle, je me suis dit alors que, par construction, la calculabilité des règles physiques était irréfutable. Mais, je n'en suis pas certain. Je me demandais si tu avais un contre-exemple concret, c'est-à-dire un contre-exemple dans lequel il n'existe aucune de ces possibilités, car évidemment, dans le domaine strictement mathématique, il en existe plusieurs comme tu me l'as bien indiqué. Je ne sais pas si je suis clair.
Évidemment, cette façon d'entrevoir la conscience repose sur une croyance philosophique. Mais, la croyance (le postulat) est inévitable, puisqu'elle est la base sur laquelle s'appuyer et laquelle construire quelque chose. De la même manière, lorsque tu supposes que la conscience est une illusion et qu'elle se réduit complètement à des règles à priori complètement inconscientes, c'est une croyance. Pourquoi ta croyance serait-elle plus « vraie » que la mienne? D'ailleurs, c'est bien à partir de ta conscience que tu supposes cette définition de la conscience. Je ne pense donc pas que tu aies utilisé une définition non circulaire de la conscience. Mais, contrairement à moi, tu ne sembles pas l'admettre.
Si tu utilises « traitement de données » pour définir la conscience (sans préciser que cette définition n'est pas totalement objective), ça peut être en contradiction avec le sens réel de la conscience (ressentir quelque chose), puisqu'il se peut fort bien qu'un traitement de données (complètement mécanisé) ne fasse pas émerger de la conscience en dépit des apparences.
Aussi, ce qui est vrai n'est pas nécessairement démontrable. On ne peut pas tout prouver. On décide donc de partir des axiomes qui nous semblent les plus utiles selon le domaine d'étude.
Je crois qu'il faut (en particulier) comprendre qu'il subsiste une part obscure à notre compréhension dans ce qu'évoque le terme conscience, par définition. On ne peut pas tout comprendre. Je décide alors que ce qui est encore incompris fera toujours partie de la conscience, puisque la compréhension fait intervenir la conscience. Autrement dit, si, un jour, nous comprenons assez bien ce qu'est la peur ou la souffrance, par exemple, alors ce sera quelque chose d'autre qui viendra remplacer ce qui nous semblait obscur, puisqu'il y aura toujours quelque chose d'obscur (pour nous), mais réel.
Es-tu d'accord pour dire qu'il y aura toujours quelque chose à comprendre, du fait de notre limite humaine? Ce quelque chose (variable, changeant) sera forcément en lien avec notre structure cérébrale (et donc avec notre conscience) qui changera forcément à la découverte de nouvelles choses. Ce changement futur n'est pas forcément compréhensible (ou imaginable) pour l'humain actuel. C'est un argument pour dire que la compréhension de la conscience sera toujours en partie incomplète.
Évidemment, je ne nie pas la possibilité réelle qu'un programme puisse vraiment être conscient (ressentir quelque chose), mais je pense que cette conscience pourrait être assez différente de la nôtre, au point de ne pas pouvoir la comprendre.
« Simuler » et « comprendre » sont deux choses différentes.
Pour moi, comprendre la conscience fait logiquement et inévitablement partie d'une compréhension partielle. Le fait de ressentir est quelque chose de forcément mystérieux. Il n'y a pas de compréhension sans pouvoir ressentir quelque chose. Certains chercheurs disent même que notre compréhension se base (se construit) entre autres sur des phénomènes ressentis ou des émotions accumulées au fil du temps (surtout à l'enfance).
Par ailleurs, si j'ai toutes les raisons de croire qu'une intelligence artificielle ressente vraiment une forme de souffrance (selon notre compréhension « en partie subjective » de la souffrance), alors, effectivement, il faudra faire comme si elle pouvait vraiment souffrir. Si je dis que la conscience restera en partie incompréhensible, ce n'est pas seulement par croyance. C'est basé aussi sur une logique simple que j'essaie tant bien que mal à expliquer. Évidemment, je peux me tromper, mais je n'arrive pas à voir où seraient mes contradictions fatales que tu sembles déceler.
En fait, naïvement, je me suis dit d'emblée que l'on peut toujours trouver un moyen, un modèle qui fasse en sorte que les différents états physiques déterminés (en particulier, du cerveau) connus et mesurés (mesurables) et le passage de l'un à l'autre soient calculables. Peut-être je me trompe? Je ne parlais pas ici de concepts explicatifs, de fonctions mathématiques ou d'états mentaux supposés, je ne parle ici que de ce qui est mesurable physiquement, dans la réalité concrète. Non seulement ces mesures sont des nombres rationnels, mais elles forment un sous-ensemble de ces nombres (je crois qu'il y a un nom particulier pour cet ensemble, mais je ne m'en souviens plus). Alors, s'il est toujours possible de trouver un tel moyen, un tel modèle, je me suis dit alors que, par construction, la calculabilité des règles physiques était irréfutable. Mais, je n'en suis pas certain. Je me demandais si tu avais un contre-exemple concret, c'est-à-dire un contre-exemple dans lequel il n'existe aucune de ces possibilités, car évidemment, dans le domaine strictement mathématique, il en existe plusieurs comme tu me l'as bien indiqué. Je ne sais pas si je suis clair.
Tu as raison, j'aurais dû mieux préciser ma remarque en ajoutant « de façon intuitive ».Yquemener a écrit :Je ne vois rien d'évident dans cette affirmation. Intuitivement je pense qu'elle est vraie, car je pense qu'il existe une bijection entre les entiers et un AST d'une expression mathématique, mais je ne suis pas sûr que la preuve formelle soit si simple que ça.
J'utilise la définition (circulaire ou implicite) de la conscience suivante : le fait de sentir, ressentir quelque chose (par la perception, la pensée ou par tout autre moyen). En ce sens, si tu ne perçois plus rien de manière consciente, comment peux-tu exister pour toi-même? En revenant à mon expérience de pensée, comment un univers peut-il exister s'il ne possède aucun moyen d'avoir un « point de vue » (une sensation ou une connaissance immédiate) sur lui-même? Comment un univers peut-il exister si aucune manifestation consciente n’est possible? Pour moi, un tel univers n'existe pas, puisqu'il n'est d'aucune façon relié à lui-même (il n'a aucune identité) et ne peut donc pas se différencier du néant. C'est pour cette raison que je lie la conscience à l'existence. Mais, à ce stade-ci, je ne parle pas encore de conscience individualisée (ou individuelle) ou de l'existence particulière d'une chose, je parle seulement de l'existence de l'univers, de « ce qui est », en tant que « tout ».Ah, tu es encore à utiliser cette définition circulaire.
Non, ce n'est pas exactement cette définition que j'utilise. Je ne parle pas de l'existence d'une chose, mais de l'existence en soi (en tant que telle). L'existence d'une chose dépend de la subjectivité de chacun. Le fait de différencier une chose d'une autre dépend du conditionnement (conscient-inconscient) de chacun.Si tu utilises comme définition de la conscience « ce qui donne une existence objective et physique aux choses » en effet, on ne peut pas la simuler. On ne créera jamais de matière en la simulant. Donc en effet, selon cette définition que personne n'utilise, la conscience n'est pas simulable.
Évidemment, cette façon d'entrevoir la conscience repose sur une croyance philosophique. Mais, la croyance (le postulat) est inévitable, puisqu'elle est la base sur laquelle s'appuyer et laquelle construire quelque chose. De la même manière, lorsque tu supposes que la conscience est une illusion et qu'elle se réduit complètement à des règles à priori complètement inconscientes, c'est une croyance. Pourquoi ta croyance serait-elle plus « vraie » que la mienne? D'ailleurs, c'est bien à partir de ta conscience que tu supposes cette définition de la conscience. Je ne pense donc pas que tu aies utilisé une définition non circulaire de la conscience. Mais, contrairement à moi, tu ne sembles pas l'admettre.
Si tu utilises « traitement de données » pour définir la conscience (sans préciser que cette définition n'est pas totalement objective), ça peut être en contradiction avec le sens réel de la conscience (ressentir quelque chose), puisqu'il se peut fort bien qu'un traitement de données (complètement mécanisé) ne fasse pas émerger de la conscience en dépit des apparences.
Tu as raison en ce qui a trait au développement de la connaissance (raisonnablement) objective. Mais, cette définition axiomatique peut être utile dans le domaine de l'éthique. J'ai déjà expliqué plusieurs fois en quoi cela pouvait être utile. « Utile », voilà un autre terme subjectif. À un certain point, la circularité est inévitable et exprime un peu nos limites.Je maintiens que la seule utilité de cette affirmation en tant qu'axiome est de bâtir un raisonnement circulaire.
Aussi, ce qui est vrai n'est pas nécessairement démontrable. On ne peut pas tout prouver. On décide donc de partir des axiomes qui nous semblent les plus utiles selon le domaine d'étude.
Oui! Ça me semble raisonnable. Le choix des termes me semble important. Je préfère garder l'expression « intelligence artificielle » qui semble plus objective.Ou alors en personnes raisonnables, on peut se mettre d'accord sur un système axiomatique de base dans lequel discuter. On saura que nos déductions comportent la condition implicite « sous réserve que nos axiomes sont corrects ».
Je crois qu'il faut (en particulier) comprendre qu'il subsiste une part obscure à notre compréhension dans ce qu'évoque le terme conscience, par définition. On ne peut pas tout comprendre. Je décide alors que ce qui est encore incompris fera toujours partie de la conscience, puisque la compréhension fait intervenir la conscience. Autrement dit, si, un jour, nous comprenons assez bien ce qu'est la peur ou la souffrance, par exemple, alors ce sera quelque chose d'autre qui viendra remplacer ce qui nous semblait obscur, puisqu'il y aura toujours quelque chose d'obscur (pour nous), mais réel.
Es-tu d'accord pour dire qu'il y aura toujours quelque chose à comprendre, du fait de notre limite humaine? Ce quelque chose (variable, changeant) sera forcément en lien avec notre structure cérébrale (et donc avec notre conscience) qui changera forcément à la découverte de nouvelles choses. Ce changement futur n'est pas forcément compréhensible (ou imaginable) pour l'humain actuel. C'est un argument pour dire que la compréhension de la conscience sera toujours en partie incomplète.
Justement, n'est-il pas alors plus honnête et humble de se dire que, en réalité, il n'y a aucun moyen raisonnable de pouvoir réduire complètement l'objectivité à la subjectivité et vice-versa?Merci de me dire ce que je pense! C'est un sophisme qu'on rencontre fréquemment : « Je suis capable de nier ce que tout le monde considère objectif! C'est donc que c'est subjectif! » Je n’ai pas envie de me relancer dans un débat contre la logique postmoderniste qui n'a jamais produit la moindre affirmation intéressante.
Je n'essayais pas de la déguiser, encore moins d'établir des raisonnements incohérents. Je ne cherche pas à te convaincre. Tu dis que tu ne vois pas d'arguments valables qui empêcheraient que la conscience soit programmable. J'ai seulement essayé de te montrer un aspect valable de ces supposés arguments.Pas la peine de déguiser ta croyance en une parodie de raisonnement logique.
Évidemment, je ne nie pas la possibilité réelle qu'un programme puisse vraiment être conscient (ressentir quelque chose), mais je pense que cette conscience pourrait être assez différente de la nôtre, au point de ne pas pouvoir la comprendre.
« Simuler » et « comprendre » sont deux choses différentes.
Pour moi, comprendre la conscience fait logiquement et inévitablement partie d'une compréhension partielle. Le fait de ressentir est quelque chose de forcément mystérieux. Il n'y a pas de compréhension sans pouvoir ressentir quelque chose. Certains chercheurs disent même que notre compréhension se base (se construit) entre autres sur des phénomènes ressentis ou des émotions accumulées au fil du temps (surtout à l'enfance).
Par ailleurs, si j'ai toutes les raisons de croire qu'une intelligence artificielle ressente vraiment une forme de souffrance (selon notre compréhension « en partie subjective » de la souffrance), alors, effectivement, il faudra faire comme si elle pouvait vraiment souffrir. Si je dis que la conscience restera en partie incompréhensible, ce n'est pas seulement par croyance. C'est basé aussi sur une logique simple que j'essaie tant bien que mal à expliquer. Évidemment, je peux me tromper, mais je n'arrive pas à voir où seraient mes contradictions fatales que tu sembles déceler.
Re: Gérard Berry : « L’ordinateur est complètement con »
En cherchant des infos sur la question, je suis tombé sur cette page intéressante de Wikipédia, qui répond à certaines questions posées dans cette enfilade.
Le fait que je sache que quelque chose est vrai n'est pas une preuve. 

Re: Gérard Berry : « L’ordinateur est complètement con »
Désolé, j'aime ce sujet, mais le taff se fait très prenant ces jours ci.
Dave: Merci de ta tentative mais perso je trouve qu'on tourne en rond et je n'ai pas envie de me lancer dans un débat existentialiste. On a visiblement des définitions de la subjectivité et de l'objectivité très différentes et d'expérience je sais que résoudre ce genre de trucs prend des pages et des pages. J'ai pas envie de faire de ce vieux débat un prélude à une conversation. D'autant plus qu'il y a une chance sur deux qu'on soit d'accord si on arrive à trouver des définitions communes.
Nicolas: Je réponds à certains trucs seulement qui me semble intéressants pour éviter un allongement exponentiel de nos message. N'hésite pas à me le dire si tu trouves que je squeeze un passage important.
Bon, bien évidemment je n'argue pas sérieusement que ce mug soit doté de conscience, mais le problème se pose dés que l'on accepte de retirer la prémisse "programmé => non-conscient". Prenons quelques autres exemples:
- Je colle un petit écran sur le mug qui génère à intervalles aléatoires des messages variés (grâce à un générateur grammatical) sur le thème "Je suis un mug" "Trop dur la vie de mug" "J'aime l'odeur du café"
- Le mug est dorénavant doté d'une petite caméra et d'un soft de reconnaissance d'image lui permettant d'identifier des objets. En fonction de ce qu'on lui montre il affichera sur son écran un message de la forme "C'est <objet reconnu>": "C'est un Mars" "C'est Bill" "C'est un mug". Puis on lui montre un miroir en l'informant que le miroir montre ce qu'il est. Il génère alors la phrase "Je suis <objet reconnu>" et du coup "Je suis un mug". Est-ce une déclaration de conscience? Si non, pourquoi?
- Un enfant de 6 mois porte une pancarte marquée "Je suis parisien" On attribuerait ces propos plutôt à la personne qui a écrite l'affiche qu'à celle qui la porte, comme dans le cas du mug.
- Un enfant de 2 ans, commençant à parler, dit "Je suis Spiderman!" en s'exclamant. Ses parents le corrigent et il répète ensuite sur le même ton "Je suis parisien!". L'enfant ne comprend pas le concept donc on a tendance à ne pas non plus lui prêter ces propos. On pourrait dire que ses parents le programment.
- Arrivé à 14 ans, entouré de ses amis se déclarant fièrement parisiens, il dit en choeur "Je suis parisien!". On pourrait dire que son environnement le programme.
Quel est le critère pour dire qu'une influence extérieure est ou non une programmation ?
Mon ordinateur a déduit de son adresse IP qu'il se trouvait au Japon et il sait également me dire quelle est sa nature et les pièces qui le composent. Est-ce une forme de conscience ? Si non, pourquoi ?
Dave: Merci de ta tentative mais perso je trouve qu'on tourne en rond et je n'ai pas envie de me lancer dans un débat existentialiste. On a visiblement des définitions de la subjectivité et de l'objectivité très différentes et d'expérience je sais que résoudre ce genre de trucs prend des pages et des pages. J'ai pas envie de faire de ce vieux débat un prélude à une conversation. D'autant plus qu'il y a une chance sur deux qu'on soit d'accord si on arrive à trouver des définitions communes.
Nicolas: Je réponds à certains trucs seulement qui me semble intéressants pour éviter un allongement exponentiel de nos message. N'hésite pas à me le dire si tu trouves que je squeeze un passage important.
Je suis d'accord avec cette phrase sauf (peut-être) dans le passage "émergente non programmé à l'avance par une conscience extérieur". Personnellement je pense que cette exigence de non-programmation vient à la fois d'une vision peut être incomplète de ce que permet la programmation et d'un anthropocentrisme qui donne l'intuition que le seul chemin vers la conscience est notre développement humain. Comme c'est notre principal point de désaccord c'est celui là que j'aimerais explorer plus en détail en repartant de l'exemple du mug.Nicolas78 a écrit :Possiblement (j'en suis certain + ou -) on pourrait reproduire une conscience avec des systemes de data, mais pas dans une forme figée et programmée...il faudrait un systeme plus malléable, autonome et auto-reprogrammable pour juger d'une conscience émergente non programmé à l'avance par une conscience extérieur et qui diffère chez les différents "sujets" en fonction de l'effet de leurs environement.
C'est pourtant bien lui qui affiche ce message.Nicolas78 a écrit :A première vue non, car ce n'est pas lui même qui à ecrit cela.
Donc il n'est pas conscient.
Peut-on proposer un autre résultat si simple ?
Bon, bien évidemment je n'argue pas sérieusement que ce mug soit doté de conscience, mais le problème se pose dés que l'on accepte de retirer la prémisse "programmé => non-conscient". Prenons quelques autres exemples:
- Je colle un petit écran sur le mug qui génère à intervalles aléatoires des messages variés (grâce à un générateur grammatical) sur le thème "Je suis un mug" "Trop dur la vie de mug" "J'aime l'odeur du café"
- Le mug est dorénavant doté d'une petite caméra et d'un soft de reconnaissance d'image lui permettant d'identifier des objets. En fonction de ce qu'on lui montre il affichera sur son écran un message de la forme "C'est <objet reconnu>": "C'est un Mars" "C'est Bill" "C'est un mug". Puis on lui montre un miroir en l'informant que le miroir montre ce qu'il est. Il génère alors la phrase "Je suis <objet reconnu>" et du coup "Je suis un mug". Est-ce une déclaration de conscience? Si non, pourquoi?
- Un enfant de 6 mois porte une pancarte marquée "Je suis parisien" On attribuerait ces propos plutôt à la personne qui a écrite l'affiche qu'à celle qui la porte, comme dans le cas du mug.
- Un enfant de 2 ans, commençant à parler, dit "Je suis Spiderman!" en s'exclamant. Ses parents le corrigent et il répète ensuite sur le même ton "Je suis parisien!". L'enfant ne comprend pas le concept donc on a tendance à ne pas non plus lui prêter ces propos. On pourrait dire que ses parents le programment.
- Arrivé à 14 ans, entouré de ses amis se déclarant fièrement parisiens, il dit en choeur "Je suis parisien!". On pourrait dire que son environnement le programme.
Quel est le critère pour dire qu'une influence extérieure est ou non une programmation ?
Mon ordinateur a déduit de son adresse IP qu'il se trouvait au Japon et il sait également me dire quelle est sa nature et les pièces qui le composent. Est-ce une forme de conscience ? Si non, pourquoi ?
J'aimerais des détails sur la façon dont tu élimines la possibilité mise en gras. Si on l'enlève, je suis totalement d'accord avec la phrase.Comment déterminerions nous s'il est conscient au sens où nous l'entendons
En observant si il est capable d'autocritique et de se poser des questions sur lui même.
Si il dispose d'un subjectif qui le rendrait différent d'un robot de même fabrication2 dans son interprétation de lui même et en vérifiant si cette capacité à été développer à partir de ses capacités de bases puis de ses expériences et non par un programme simulant des questionements d'on il n'est pas la source d'origine et qui vient d'un potentiel de conscience extérieur à ce robot (comme un replay sonore, pour faire simple).
Bon alors sois précis! Et note qu'on peut restructurer un programme en live en fonction des expériences et de l'environnement et toujours être déterministe. Si tu as une entropie qui vient de l'extérieur, ton système agira d'une façon différente même s'il est purement déterministe. Qu'accepterais tu comme équivalent logiciel d'une "restructuration du cerveau" ? Un programme qui se mettrait à exécuter des instructions différentes au fur et à mesure qu'il apprend des choses de son environnement ?Nicolas78 a écrit :Enfin attention, je ne parle pas d'une définition du non-déterminisme, mais d'un procédé non déterministe : restructuration du cerveau en "live" en fonction des expériences et de l'environement.
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Gérard Berry : « L’ordinateur est complètement con »
yquemener a écrit :Bon, bien évidemment je n'argue pas sérieusement que ce mug soit doté de conscience
Et pour celui là ? Tu argues sérieusement que ce mug là est doté d'une conscience ?yquemener a écrit : Le mug est dorénavant doté d'une petite caméra et d'un soft de reconnaissance d'image lui permettant d'identifier des objets. En fonction de ce qu'on lui montre il affichera sur son écran un message de la forme "C'est <objet reconnu>": "C'est un Mars" "C'est Bill" "C'est un mug". Puis on lui montre un miroir en l'informant que le miroir montre ce qu'il est. Il génère alors la phrase "Je suis <objet reconnu>" et du coup "Je suis un mug". Est-ce une déclaration de conscience? Si non, pourquoi?
Pose le même dispositif sur un chien et ton chien s'exclamera "je suis un chien" !
Il aurait donc désormais deux consciences ?
C'est absurde.
Dans "Johnny s'en va en guerre" le héros perd en plus de ses membres la parole, la vue, l'ouïe et l'odorat.
On le croit inconscient, et pourtant...
La conscience ça se passe dans ta tête. Peut être qu'un jour les machines seront réellement conscientes et tout comme nous incapable de le prouver, il faudra probablement les croire sur paroles.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: Gérard Berry : « L’ordinateur est complètement con »
Je comprends. Je n'ai également pas l'envie de virer dans un débat purement existentialiste. Ironiquement, je voulais montrer que, inévitablement, d'une certaine manière, l'on tourne en rond lorsqu'on essaie de comprendre ce qu'est la conscience, ce qui est dû en partie à l'autoréférence que cette activité produit.Yquemener a écrit :Merci de ta tentative, mais perso je trouve qu'on tourne en rond et je n'ai pas envie de me lancer dans un débat existentialiste.
Par exemple, si l'on conclut, faute de trouver de meilleure définition, que la conscience n'est qu'une illusion, alors, même dans ce cas, nous serions encore en présence d'un paradoxe insurmontable. En effet, c'est bien par notre conscience que nous concluons qu'elle n'est qu'une illusion. Comment la vérité de quelque chose (ici la définition de la conscience) pourrait-elle être obtenue à partir d'une illusion, à partir de quelque chose qui n'existerait pas vraiment? Comment l'illusion elle-même peut-elle découvrir sa vraie nature d'illusion? Forcément, il y aurait quelque chose de réel, de véridique, à l'intérieur même de cette illusion, ce qui serait contradictoire. Non?
Évidemment, te faire rappeler que l'approche computationnaliste pourrait logiquement ne pas être une façon assurée de générer une réelle conscience intelligente est une position facile. De plus, celle-ci n'est pas très stimulante pour ceux qui (eux, au moins) se forcent à montrer et démontrer le bien-fondé (ou non) de cette approche.
Einstein aurait déjà dit : « Ce qu'il y a de plus incompréhensible dans l'Univers, c'est qu'il soit compréhensible. » http://www.larecherche.fr/savoirs/epist ... 2003-84130
J'aurais encore plusieurs choses à exprimer sur ce sujet, mais ça resterait au stade de l'opinion (tout de même minimalement réfléchie) et de la spéculation. Comme, par exemple, pour moi, il n'est pas impossible qu'il puisse exister des « formes » de conscience hors du temps. Aussi, si l'on image la conscience par un champ de conscience (ce qui, à mon avis, éviterait une réelle émergence forte que Raphaël exprimait par la pensée douteuse que la conscience apparaitrait comme par magie), alors des structures matérielles programmées précises (mais lesquelles?) pourraient « intercepter », capturer ce champ de conscience intemporel et improuvable. Tout ça reste vague, j'en conviens. Mais, selon moi, la conscience et l'infini pourraient être intimement liés. Du moins, rien n'empêche (et tout semble indiquer) que la conscience soit à jamais incompréhensible.
Aussi, le seuil défini qui permettrait l'apparition de la conscience ou de la protoconscience semble très arbitraire et subjectif. Effectivement, n'importe quel phénomène physique pourrait être associé à une forme de conscience ou de conscience minimale, bien que la plupart (voire l'écrasante majorité) de ces formes seraient tout à fait étrangères à la nôtre.
Re: Gérard Berry : « L’ordinateur est complètement con »
Oui. Tant qu'un « système » n'est pas en mesure de saisir~comprendre ce à quoi réfère un mot ou tout ce qu'implique une notion ou un concept, mais répète tout de même ce qu'on lui « dit » (ordonne => ordre donné => programme) de répéter, le « système » ne fait qu'exécuter un « ordre », en effet.yquemener a écrit : - Un enfant de 6 mois porte une pancarte marquée "Je suis parisien" On attribuerait ces propos plutôt à la personne qui a écrite l'affiche qu'à celle qui la porte, comme dans le cas du mug.
- Un enfant de 2 ans, commençant à parler, dit "Je suis Spiderman!" en s'exclamant. Ses parents le corrigent et il répète ensuite sur le même ton "Je suis parisien!". L'enfant ne comprend pas le concept donc on a tendance à ne pas non plus lui prêter ces propos.
On pourrait dire que ses parents le programment.
Mais, jusqu'ici, j'aimerais faire remarquer qu'il y a un facteur de « contrainte » à prendre en compte. Tout comme une « machine » ne peut refuser d'elle-même d'exécuter (ou de tenir compte) des lignes de code qui composent son programme, jusqu'à un certain âge, il en est de même (ou similaire) avec les jeunes enfants. Tant que ce qu'imposent ou suggèrent (=> « programment ») les parents ne heurte pas trop le « programme de bas niveau » [instinctuel, inné] concernant le « plaisir/souffrance » de l'enfant, ce dernier s'en remet (et n'a pas le choix de s'en remettre) à ses parents (programmeurs) et se contente « d'exécuter les ordres » (et, entre autres, parce qu'il a déjà été « programmé » qu'il pourrait être punis [donc souffrance pour lui] s'il n'obtempère pas...). Bref, un jeune enfant n'est pas encore « libre » (il est donc contraint) et n'est pas en mesure de saisir certaines notions, ce qui ne lui laisse d'autre choix que de s'en remettre à « l'autorité » de ses « parents~programmeurs ».
Je suis d'accord, mais c'est là que ça devient beaucoup plus complexe. Les compréhensions des notions « d'identité » et de « patriotisme » (P. Ex., entre autres) sont maintenant possibles et selon l'intensité du désir d'appartenance (ou non) et de reconnaissance (entre autres) face à certains de ses semblables (et des conséquences anticipées selon ce qu'il répondra...), tous les jeunes de 14 ans ne réagirons pas nécessairement de la même façon aux diverses pressions susceptibles de les influencer~programmer. Le jeune peut savoir et reconnaître qu'il habite à Paris sans pour autant « ressentir » la fierté (ou déduire d'avoir à être fier) d'être parisiens. Et si sa jolie petite voisine (qui éveille depuis peu de nouvelles « sensations~pulsions » qu'il n'avait encore jamais ressenties...yquemener a écrit :- Arrivé à 14 ans, entouré de ses amis se déclarant fièrement parisiens, il dit en choeur "Je suis parisien!". On pourrait dire que son environnement le programme.

Si tu me suis bien, tu comprendras que je ne te contredis pas yquemener, je veux seulement faire saisir à certains que ce que plusieurs attribuent à l'intelligence (ou à la conscience) humaine, croyant qu'elle diffère des IA, ne sont en fait que d'autres facteurs qui n'ont rien à voir avec l'intelligence ou la conscience. C'est plutôt la singularité des infos et des expériences (en plus des composants internes qui ne sont jamais identiques à 100% chez l'humain) auxquels est soumis un cerveau qui produit la diversité des hommes et des femmes et qui produit donc l'illusion du choix et des différences.
Bref, pour tout ce qui concerne l'aspect « programmation », je pense partager ta vision des choses.
Pour un système complexe qui ne dépend plus de ses programmeurs~parents, on ne peut pas déterminer qu'une influence x ou y est ou n'est pas (en elle-même) une programmation. C'est la dynamique qui se créer entre une influence spécifique (singulière) et un « système » spécifique (singulier) qui peut être qualifié plus ou moins de « programmation ».yquemener a écrit :Quel est le critère pour dire qu'une influence extérieure est ou non une programmation ?
On en reviens donc à la notion de contrainte : à quel point le « système » est-il contraint ou soumis à cette dynamique, au point où ses « pseudo-choix » habituels (déterminés de par sa singularité et le « déterminisme ambiant ») ne pourront pas s'effectuer comme à l'habitude (donc à quel point il est « libre » de laisser le déterminisme s'effectuer en rapport avec sa propre singularité) et à qu'elle point cette habituelle pseudo-liberté est parfois contrainte par une volonté (et non pas juste les contingences et le déterminisme), ou une autre intelligence ?
Si tu me suis bien, ce n'est pas parce que l'humain n'a pas vraiment le choix et que tout ce qu'il est n'est que « programmation » et influences externes au final; qu'on ne peut pas faire une distinction pour autant entre un « déterminisme de contingences » (appelons ça comme ça) et ce qui est initié, soutenu, encouragé, suggéré, propagé ou « imposé » par d'autres volontés ou intelligences et qui est susceptible, aussi, de « programmer » un système (même si ces derniers types de programmations s'incorporent de toute façon dans l'ensemble de toutes les influences au final).
Et c'est pourquoi (comme dans mon message du 11 mars) j'aborde des aspects qui peuvent sembler hors propos a priori, mais qui sont en fait plus que pertinents : à quel point voudrons nous laisser une marge de liberté à une IA? Pour pouvoir être manifeste (et faire des pseudo-choix, à l'intérieur d'un déterminisme de contingences), elle devra être au moins aussi « libre » qu'un adulte normal l'est dans une société démocratique. Ainsi que d'avoir accès à tous les concepts et notions que peuvent saisir les adultes « libre ». Sinon, on ne peut réellement comparer, car c'est comme si nous restreignons l'IA au stade d'un enfant qui n'a pas accès à certaines notions et concepts et qui est donc contrainte de subir et d'obéir à certaine programmation (par des parents~programmeurs). N'étant pas un « adulte "libre" », la comparaison est inégale.
Si ce n'est qu'une chose, entre autres, dont fait une IA « libre » qui ne dépend plus de ses parents~programmeurs, peut-être (surtout s’il lui prend l'idée de t'en informer sans que tu lui demandes!). Mais si ce n'est que la fonction que tu décris et qu'un programme actuel (avec nos PC actuels) peut déjà t'informer (mais qui requiert que tu lui « demandes » l'info en ouvrant une appli ou en tapant les requêtes appropriées dans une fenêtre de terminal ou de commandes), pas du tout!yquemener a écrit :Mon ordinateur a déduit de son adresse IP qu'il se trouvait au Japon et il sait également me dire quelle est sa nature et les pièces qui le composent. Est-ce une forme de conscience ? Si non, pourquoi ?
Sur tout ce qui à trait à la « programmation », je partage ton avis, mais précisément concernant la notion de « conscience », je la partage beaucoup moins (je ne dis pas que ce n'est pas possible, mais que tes exemples ne la démontrent ou ne l'implique pas du tout àmha).
Dernière modification par Dash le 14 mars 2015, 00:07, modifié 1 fois.
Penser savoir est une chose, savoir penser en est une autre !
Qui est en ligne ?
Utilisateurs parcourant ce forum : Jean-Francois