Gérard Berry : « L’ordinateur est complètement con »

Tout sur les sciences, que ce soit la chimie, la biologie, l'astronomie etc.
steph
Messages : 603
Inscription : 05 juin 2009, 04:28

Re: Gérard Berry : « L’ordinateur est complètement con »

#126

Message par steph » 09 mars 2015, 05:50

Salut yquemener

Personnellement j'y crois a 95% que IA est possible,mais cela m’amène a penser ceci :

Si un jour nous arrivons a concevoir un ordinateur pensant par lui-même IA, donc tout est mathématique, quantifiable, bref l'ordinateur va pourvoir prédire l'avenir en calculant tout les variables possibles.

Est-ce que notre présence sur ce forum depuis le Big Bang était prévisible?

Est-ce que nos futur message sur ce forum serait prévisible si nous connaîtrions comment calculer les variables qui font ce que nous sommes?

Que penses-tu du déterminisme?

Le hasard n'existe pas, tout est explicable, ceci s'applique tu as nous(animaux), sommes-nous libre arbitre de nos pensées ou si tout est prévisibles?

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: Gérard Berry : « L’ordinateur est complètement con »

#127

Message par Dash » 09 mars 2015, 06:30

Raph a écrit :...puisque les décisions humaines sont faites à partir d'une réflexion.
Pas toute! Juste celles 100% "techniques". La majeure partie des autres ne sont qu'en fait que des justifications~rationalisations de ce qui est déjà décidé inconsciement par des "programmes" justement.

Notre part de liberté (je pense qu'on en a une, mais) est très petite.
Penser savoir est une chose, savoir penser en est une autre !

Dave
Messages : 393
Inscription : 15 sept. 2011, 04:30

Re: Gérard Berry : « L’ordinateur est complètement con »

#128

Message par Dave » 09 mars 2015, 09:02

Yquemener a écrit :Oui, mais je répète qu'il s'agit d'une conviction forgée au fil des années à ne pas voir d'arguments contraires qui tienne la route.
Je me permets de penser qu'il est possible que tu n'aies pas tout à fait compris les idées derrière ces arguments. Je t'invite seulement (tout comme moi) à te remettre en question. Le but, c'est aussi d'avoir tort. D'autant plus que ce sujet reste assez largement philosophique. Si l'approche computationnaliste se veut une solution au problème de l'intelligence et de la conscience, comment est-il possible de la rendre réfutable? Tes réponses sont plutôt de l'ordre de la conviction, et non de l'ordre de la science.

Yquemener a écrit :
Dave a écrit :Par contre, une chose qui me semble utile est d'établir des corrélations entre les états physiques et mentaux. La conscience devient alors immédiatement confondue avec sa façon d'être consciente. C'est déjà beaucoup plus scientifique.
Peux-tu donner un exemple? Tel que tu le décris j'ai l'impression que certains systèmes le font déjà.
Ce que je dis, c'est qu'il est plus enrichissant d'étudier le fonctionnement du corps humain, principalement le cerveau, pour mieux entrevoir ce que sont l'intelligence et la conscience, ou les mécanismes physiologiques qui sont (en partie, du moins) liés à elles, puisque cette activité est scientifique et ne suppose pas avoir déjà compris ce qu'est l'intelligence. Par contre, créer des lignes de code pour simuler une intelligence ne dit rien de plus sur l'intelligence que ce que l'on connait déjà, comme si nous avions compris ce qu'est l'intelligence, puisque, se dit-on, la machine simulerait bien les comportements apparentés à ce que l'on considère comme des comportements intelligents. On tombe alors dans ce qui est infalsifiable.

Yquemener a écrit :Peux-tu me prouver que tu ne simules pas ces sensations?
Non. Mais, les probabilités font que tu devrais faire comme si je ressentais vraiment une grande quantité de choses. Le solipsisme est une position intenable. Wittgenstein, entre autres, exprime en quoi c'est une telle position. D'ailleurs, ceux qui croient que « tout » ce qui existe doit être prouvé n'ont probablement pas compris que « tout » ne peut être prouvé et qu'il faut forcément baser nos preuves sur des axiomes ou des postulats, lesquels demeurent forcément en partie subjectifs.

Pour la connaissance/pratique, il est plus enrichissant de partir du postulat que la conscience émerge d'une inconscience « réglée », comme si la subjectivité provenait d'une pure objectivité. Mais, d'un point de vue philosophique et bien plus logique (je trouve), il est préférable de partir du postulat que l'un est irréductible à l'autre. La conscience et l'inconscience sont implicitement imbriquées (mêlées) l'un dans l'autre donnant une multitude de consciences-inconsciences. En effet, de constat, il n'y a pas d'objectivité pure. En science, on parlera d'observations ou de théories corroborées par une intersubjectivité. Ainsi, il y a une infime chance qu'un ensemble de règles de base (à priori inconscientes) produisent réellement une conscience-inconscience, puisque celles-ci se sont déjà extirpées d'une forme de conscience.
Question intermédiaire : Peux-tu TE prouver que tu les ressens vraiment au lieu d'avoir un circuit qui se contente de les simuler?
D'abord, l'un n'empêche pas l'autre. Si tu ne l'as pas déjà remarqué, j'établis une différence entre la conscience axiomatique (celle étant l'essence de l'existence en lui-même, le fait de ressentir) et la conscience façonnée, c'est-à-dire celle qui varie dans ses façons de ressentir, de percevoir, de penser, etc. Cette dernière correspond forcément à des manifestations matérielles (connaissables) variées. Ensuite, je « sais » que je ressens certaines choses. C'est une connaissance immédiate. J'ai connaissance de façons de ressentir. C'est justement à partir de la conscience que je peux prouver certaines choses. Évidemment, toute façon de ressentir est subjective et forcément en partie illusoire. Ma conscience-inconscience, étant limitée, n'arrive pas, par définition, à se débarrasser de toute illusion, mais le principe même de (se) ressentir ne peut pas (par nécessité) être une illusion en soi.

Yquemener a écrit :Si je montre que tous les comportements peuvent être programmés, on me répond « Ah, mais si tu dois tout programmer, c'est nul parce que le programme ne découvre pas les choses par lui-même. » Du coup, je montre qu'on peut aussi faire émerger des comportements et tu me réponds « Ah oui, mais si ça émerge c'est que tu ne comprends pas ce qui se passe ». Sérieux, je dois faire quoi pour vous convaincre?
Justement, je me demande bien ce que tu cherches à démontrer exactement. Car, dans la façon dont je te comprends, je ne vois pas la falsifiabilité de ton approche. Je crois qu'il est possible de simuler n'importe quel comportement apparent, je ne dis pas le contraire. Cependant, les comportements émergents ne seront pas nécessairement compréhensibles au même niveau. Aussi, tu sembles plutôt parler d'une émergence faible, tandis que la conscience semble surtout issue d'une émergence forte.

Le problème, c'est qu'il y a, à priori, un nombre pratiquement infini de comportements intelligents possibles. Puisqu'il faut bien arrêter la programmation un jour, on suppose alors que la base limitée de comportements programmés fera émerger les autres comportements intelligents restants (possibles) que l'on n'a pas programmés. Cette supposition n'est qu'un espoir non démontré. En effet, puisque, par incomplétude, on ne peut pas comprendre la liaison fondamentale, c'est-à-dire ce qui relie ensemble toutes les formes d'intelligences connues et possibles, nous n'avons alors pas démontré que les comportements émergents seront potentiellement ceux (qui sont connus ou qui le seront) que l'on n'a pas programmés, puisque certains comportements intelligents peuvent être indépendants de certains autres comportements intelligents.

Aussi, sinon, en quoi, selon ta définition de l'intelligence, un programme d'échecs ne serait-il pas intelligent? Ne penses-tu pas que ceux affirmant que le meilleur programme d'échecs n'a aucune intelligence en lui-même ne disent pas une bêtise?

Ce que l'on peut percevoir et connaitre de la réalité est une partie dénombrable de celle-ci qui, elle, peut (très certainement) être non dénombrable. Autrement dit, si la conscience (et l'intelligence) ne se limite pas à une partie dénombrable de la réalité, alors la base dénombrable (les connaissances humaines) qui cherche à la construire sera forcément insuffisante. Le modèle n'est pas la réalité.

La flexibilité d'un programme peut être suffisante à l'adaptabilité et à l'apprentissage.
Non. Il faudrait plutôt dire que la « flexibilité » d'un programme est suffisante à certains types précis et connus d'apprentissage et d'adaptabilité. Car, sinon, ton affirmation suppose que nous comprenons parfaitement ce qu'est l'apprentissage et donc la métacognition.

Yquemener a écrit :
Dave a écrit :Si l'on décide qu'une procédure purement mécanique est l'expression d'une intelligence seulement parce qu'elle en a toutes les apparences, d'accord. Mais, on ne peut pas en conclure pour autant que cette procédure « ressente » sa seule propre existence intelligente, qu'elle soit dotée de conscience.
Même question que plus haut : dis-moi comment tu prouves que toi, tu ressens réellement ta propre intelligence et je te programme un truc qui passe le test.
En ne répondant pas à ma question, tu passes à côté de ce que j'essaie de te faire comprendre. À savoir, je te montre qu'il existe une façon de voir la conscience et l'intelligence de telle sorte qu'il est vraiment possible de ne pas pouvoir la programmer. C'est une question de point de vue. Je ne vois pas en quoi mes points seraient irrecevables. Ta réponse demeure tautologique. Je ne peux pas prouver ma conscience, puisque je me base déjà sur elle pour prouver d'autres choses. Par ailleurs, une loi de la nature, même si elle fonctionne, il y a une chance sur l'infini qu'elle soit absolument vraie. Il y a une chance sur l'infini que la réalité soit vraiment dénombrable (à un niveau accessible à nous).

Yquemener a écrit :Sauf que X ici signifiait « conscience », donc argument rejeté.
Ça dépend. Selon mon évidence, sans conscience en soi, rien n'existe. Grosso modo, la conscience peut être comprise comme l'essence de l'existence. J'en ai pourtant déjà glissé un mot. Je me demande si tu me lis sérieusement, sans juger à priori que certains passages sont abscons ou absurdes.
Ben oui. Si tu trouves que par exemple l'apparition de la vie consciente dépend d'une certaine quantité d'antimatière au moment du Big Bang, tu peux imaginer qu'un tel univers puisse exister. Aujourd'hui on a du mal à dire si c'est possible, car il nous reste des inconnues sur les conditions de l'abiogenèse et les conditions nécessaires à l'apparition de la vie intelligente, mais rien ne dit que dès qu'un univers existe, ces phénomènes apparaissent. Il est même relativement probable que ce ne soit pas le cas!
Mais, c'est encore à partir de notre conscience subjective que nous trouverions comment apparait cette subjectivité. Ne vois-tu pas qu'il y a un argument circulaire implicite dans ton explication? C'est comme si tu n'acceptais pas la possibilité que l'humain, étant forcément limité, ne pourra jamais tout comprendre. Je dis que la subjectivité serait simplement l'expression de cette impossibilité, de ce qui est inconnaissable, et pourtant réel. Si l'univers n'a aucune conscience ou forme de conscience, c'est donc qu'il n'a aucun point de vue sur lui-même, aucune relation (ou liaison) à lui-même. Comment peut-il alors exister, être différent du néant? De plus, ton explication force l'apparition d'un temps de l'univers, comme si l'univers était dans le temps, alors que c'est l'inverse. C'est normal, ton explication est reliée à ce qu'on peut imaginer de sensé comme explication, mais elle reste conditionnée par notre limite, notre expérience inévitablement soumise à une forme ou une autre d'espace-temps.

Si tu as redéfini « conscience » pour vouloir dire « existence », ma démonstration est donc très simple : le programme émet des informations, il existe donc, il est donc conscient.
À ce moment, je parlais de la conscience en soi, et non de consciences particulières. Tout ce que ça démontre, c'est que le programme est lié à une forme de conscience (la nôtre). Ça n'implique pas qu'il soit conscient en lui-même.

Sans définition claire, tu peux bien dire ce que tu veux!
Justement, par essence, la conscience sera toujours mal définie. Ce que j'essaie de t'expliquer est pourtant clair à mes yeux. J'ai dit :
Dave a écrit :Pourrait-on alors plutôt assimiler la machine à la projection et l'expression d'une forme de conscience humaine liée à ses solutions logiques actuelles?
Si le programme n'a pas de conscience immédiate de lui-même, s'il n'a pas la sensation ou la sensibilité en lui-même, on ne peut pas dire qu'il existe de la même façon que l'humain conscient.

Yquemener a écrit :Si je me souviens de ma philo, les qualia sont les stimulus bruts. Pas la conscience. On peut arguer que la moindre caméra USB génère des qualia.
Source?

Non-comptabilité et non-décidabilité sont des problèmes différents. Et le fait que les humains ne sont pas non plus capables de résoudre ces problèmes montre que ce n'est pas nécessaire à un système intelligent.
Quels problèmes? Le théorème de l'incomplétude est utilisé pour démontrer que certaines choses ne sont pas programmables. Tu m'as déjà même donné un exemple, il y a plusieurs années. Es-tu au moins d'accord pour dire que tout n'est pas programmable? Si oui, en quoi les arguments de ceux t'expliquant la réelle possibilité que la conscience ne soit pas programmable seraient-ils irrecevables? Comment pourrait-il y avoir des choses non programmables tout en ayant une subjectivité (ce qui est, par définition, une chose mystérieuse) forcément programmable?


Cordialement.
Dernière modification par Dave le 09 mars 2015, 10:12, modifié 1 fois.

Avatar de l’utilisateur
Wooden Ali
Messages : 5070
Inscription : 09 déc. 2006, 21:31

Re: Gérard Berry : « L’ordinateur est complètement con »

#129

Message par Wooden Ali » 09 mars 2015, 10:00

J'ai dans l'idée que ce qui manque à un ordinateur pour ressembler vraiment à un être humain, ce n'est pas dans l'acquisition et le traitement des données qu'il faut chercher. Elles sont déjà souvent largement excédentaires par rapport à celles que nous utilisons mais c'est plutôt dans le désir avec le plaisir et la peine qui lui sont associés. Tant que le robot n'aura pas peur ou ne jouira pas, son comportement ne sera pas celui d'un être vivant.
Si on peut programmer la fureur, l'ambition et la passion (pourquoi pas ?) et les inoculer à un robot, on pourra alors remplacer le plus grand emmerdeur de la Planète par un autre qui le sera tout autant. Quel intérêt ?
En attendant, les robots sont pour l'instant des sous-esclaves qui peuvent et qui pourront de plus en plus nous remplacer dans la plupart des jobs qui nous font vivre. Cela restreint dangereusement le nombre de ceux d'entre nous qui sont utiles à la société. Quelle société imaginer dans laquelle la quasi totalité de ses composants seraient des boulets sans valeur ? L'Homme a toujours traité de façon barbare les inutiles. Pourquoi changerait-il s'ils deviennent l'écrasante majorité ?
Les faits ne pénètrent pas dans le monde où vivent nos croyances. Marcel Proust

Gloire à qui n'ayant pas d'idéal sacro-saint
Se borne à ne pas trop emmerder ses voisins ! Georges Brassens

Mon Dieu ! Mon Dieu ! Pourquoi m'as-tu abandonné ? Dieu

Avatar de l’utilisateur
spin-up
Modérateur
Modérateur
Messages : 6321
Inscription : 23 févr. 2012, 12:01

Re: Gérard Berry : « L’ordinateur est complètement con »

#130

Message par spin-up » 09 mars 2015, 10:28

Wooden Ali a écrit :J'ai dans l'idée que ce qui manque à un ordinateur pour ressembler vraiment à un être humain, ce n'est pas dans l'acquisition et le traitement des données qu'il faut chercher. Elles sont déjà souvent largement excédentaires par rapport à celles que nous utilisons mais c'est plutôt dans le désir avec le plaisir et la peine qui lui sont associés. Tant que le robot n'aura pas peur ou ne jouira pas, son comportement ne sera pas celui d'un être vivant.
Je ne crois pas que la puissance le traitement des donnees soit excedentaire par rapport a la notre. Pas dans la facon actuelle dont elle est implementee. Les systemes vivants ont un mode de traitement des informations incroyablement flexible, economique et optimisé par rapport aux ordinateurs (en contrepartie, ils sont moins fiables, moins precis). Rien que la vision, par exemple il faudrait a un PC puissant au moins plusieurs minutes pour faire ce que notre cerveau fait en une fraction de seconde. Idem pour l'audition, la motricité, les interactions sociales.

Pour ce qui est des emotions, ca me parait pas insurmontable. Il faudrait programmer le comportement du systeme de recompenses/punitions et des niveaux de neurotransmetteurs (dopamine, serotonine, ocytocine, adrenaline).

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#131

Message par f.didier » 09 mars 2015, 12:53

f.didier: Ok, donc tu acceptes la possibilité théorique, mais pas le fait que ce soit praticable avec les ordis aujourd'hui. Je me demande juste ce que tu penses qu'il manque à nos ordis pour que tu penses que les évolutions technique des 20 prochaines années puissent lui apporter la pièce manquante.
Pour mieux comprendre, il faut voir comment fonctionne un cerveau :
le cerveau d'un mammifère est composé de neurones, a peu pret 100 milliards.
Le nombre total de neurones du cerveau humain est estimé de 861 à 100 milliards (1011)
Chacun de ses neurones possède des synapses, une moyenne de 10.000. Chacun de ces synapse est composé de 4 vésicules chacun capable de transmettrent des informations chimiques (et pas électrique).
Les vésicules arrondies à centre clair, sphériques, de diamètre de 40 à 60 nm. Elles contiennent l'acétylcholine, l'acide glutamique, et la substance P ;
Les vésicules aplaties à centre clair, de forme plutôt ovale, avec un diamètre de 50 nm. Elles contiennent le GABA et la glycine, donc des neurotransmetteurs inhibiteurs ;
Les petites vésicules à centre dense, de forme sphérique, et de diamètre de 40 à 60 nm. Elles contiennent la noradrénaline, la dopamine, et la sérotonine ;
Les grandes vésicules à centre dense, sphériques, de 80 à 100 nm de diamètre.
Chaque neurone, grâce a ce système, est en contact avec tous les neurones autour de lui.

L'ordinateur, a l'heure actuelle a un processeur avec 4 cœurs, l’équivalent a 4 neurones. Chacun de ces cœur a une entrée et une sortie, avec un régulateur avant, qui dispatche les taches entre les 4, et un régulateur a la sortie qui remet les calculs dans le bon sens. Ils n'ont qu'un moyen de communication, l'impulsion électrique (les fameux 0 ou 1).

Nous avons donc d'un coté un processeur possédant 100 milliards de cœurs, chacun ayant 10.000 connections pouvant envoyer 4 types d'informations en même temps. Et de l'autre, un processeur avec 4 cœurs, ayant 2 connections pouvant envoyer qu'un seul type d'information.

Voila pourquoi le système actuel ne permettra jamais l’émergence d'une conscience. Le jour où sera mit au point un système avec des millions de processeurs qui pourront communiquer entre eux, ce jour là, y a des chances que l'ordinateur puisse s’éveiller. Mais pour le moment, les ordinateurs sont pas configurer pour ca.
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#132

Message par f.didier » 09 mars 2015, 13:30

spin-up a écrit : Je ne crois pas que la puissance le traitement des donnees soit excedentaire par rapport a la notre. Pas dans la facon actuelle dont elle est implementee. Les systemes vivants ont un mode de traitement des informations incroyablement flexible, economique et optimisé par rapport aux ordinateurs (en contrepartie, ils sont moins fiables, moins precis). Rien que la vision, par exemple il faudrait a un PC puissant au moins plusieurs minutes pour faire ce que notre cerveau fait en une fraction de seconde. Idem pour l'audition, la motricité, les interactions sociales.
https://fr.wikipedia.org/wiki/Intellige ... ilit.C3.A9
le cerveau humain (grossièrement 2 × 1014 opérations logiques par seconde, car formé de 2 × 1012 neurones ne pouvant chacun commuter plus de 100 fois par seconde)
Ca, c'est la vitesse du cerveau humain, a peu pret, ca dépend de chacun, mais c'est une moyenne. 1014 c'est 1 tétra.
Un ordinateur a l'heure actuelle fait du 3.5 Ghz ou 3.510 opérations par seconde.
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
curieux
Messages : 6866
Inscription : 12 juin 2005, 16:17

Re: Gérard Berry : « L’ordinateur est complètement con »

#133

Message par curieux » 09 mars 2015, 14:04

f.didier a écrit :Un ordinateur a l'heure actuelle fait du 3.5 Ghz ou 3.510 opérations par seconde.
Pour être plus précis c'est 3.5 10^9 opérations par seconde, l'ordi ne peut pas calculer plus vite que le nombre de cycles de son horloge, sans compter que des opérations qui ne prennent qu'un seul cycle je n'en connais qu'une : le code NOP (No Opération = attendre sans rien faire), toutes les autres prennent bien plus de cycles pour s'effectuer.
Le rôle de la physique mathématique est de bien poser les questions, ce n'est que l'expérience qui peut les résoudre. [Henri Poincaré]

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#134

Message par f.didier » 09 mars 2015, 15:44

curieux a écrit :Pour être plus précis c'est 3.5 10^9 opérations par seconde, l'ordi ne peut pas calculer plus vite que le nombre de cycles de son horloge, sans compter que des opérations qui ne prennent qu'un seul cycle je n'en connais qu'une : le code NOP (No Opération = attendre sans rien faire), toutes les autres prennent bien plus de cycles pour s'effectuer.
Oui, je vais te dire que c'est fort possible, mais là, tu dépasses mes connaissances :a2:
Déja, rien que écrire 3.5 10^9, tu es allé au dela de mes connaissances en math, je ne sais pas du tout ce que veut dire l'accent circonflexe entre deux nombres :a2:
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
Chanur
Messages : 1489
Inscription : 14 déc. 2013, 10:58

Re: Gérard Berry : « L’ordinateur est complètement con »

#135

Message par Chanur » 09 mars 2015, 15:48

f.didier a écrit :Déja, rien que écrire 3.5 10^9, tu es allé au dela de mes connaissances en math, je ne sais pas du tout ce que veut dire l'accent circonflexe entre deux nombres :a2:
Dix puissance neuf.
10^9 = 109 = 10 x 10 x 10 x 10 x 10 x 10 x 10 x 10 x 10 = 1000000000 = 1 milliard. ;)
Le fait que je sache que quelque chose est vrai n'est pas une preuve. :chat:

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#136

Message par f.didier » 09 mars 2015, 15:53

Ha d'accord, car mettre en puissance, je connais, mais tu vois je savais pas que ca pouvait s’écrire avec 10^3 par exemple, moi, j'utilise la case SUB, qui donne 103 ou 10 puissance 3.
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
Nicolas78
Messages : 11460
Inscription : 04 janv. 2013, 15:32

Re: Gérard Berry : « L’ordinateur est complètement con »

#137

Message par Nicolas78 » 09 mars 2015, 16:12

yquemener a écrit :
Nicolas78 a écrit :Pourquoi intégrer ce bouton ON/OFF à la chaussure ?
Parce que son désir de survie ne correspond à aucune utilité profonde et aura sûrement été rajouté au dessus d'une intelligence plus neutre. Du coup l'enlever sera facile. Vois ça comme un patch, ou un crack.
Nicolas78 a écrit :On sais pas trop si les une et les autres caractéristiques, quoi que différentes, soit vraiment imputables sans altérer la conscience ou l'intelligence, non ?
Je ne sais pas si on peut dire ça. On n'a pas d'exemples des uns sans les autres mais on n'a pas non plus de raison de croire qu'ils soit si intrinséquement liés. Tu as besoin de l'intelligence pour la conscience et pour la moralité mais aucun mécanisme ne semble rendre nécessaire la conscience ou la moralité pour que l'intelligence existe.
Nicolas78 a écrit :Une IA avec une conscience d'elle, on ne sais pas si une intelligence robotique marchant avec des 0 et des 1 en serait capable.
Il faut arrêter avec ces 0 et ces 1. Le cerveau humain fonctionne avec des 0 et des 1 qui sont les potentiels d'action des neurones. Ça n'a aucun impact sur le niveau d'abstraction symbolique que des programmes sont capables d'atteindre.
- Pour la chaussure : c'est à dire aucune utilité ? Je ne te suis pas...et puis c’est quoi une "utilité profonde" ?

- Je comprend mieux le 2eme point ;)

- Pour les 0 et les 1...Ici j'en doute, le cerveaux n'a pas un fonctionnement d'ordinateur, ni binaire, ni numérique.
Pour le moment de ce qu'on sais, l'architecture du cerveau permet d'apprendre et de mettre en mémoire. Mais aussi de mettre en mémoire pour mieux apprendre (comme un ordi). Et les deux semble fonctionner en tandem. On peut même parler d'un troisièmement type de fonctionnement du genre "binaire nuancé"... Bref c'est plus une toile qu'un systeme binaire (ou les deux).
Pour les ordis c'est "l’inverse" (qu'un cas), sans programmes pré-appris à l'avance, il ne sort pas d'apprentissage...d’ailleurs pour le moment, il n'y à pas de réel apprentissage d'IA non pré-programmé avant la situation...la notion d’expérience reste post-programmé et limité par la structure du programme, mais aussi du concepteur...
Sans "programme" de ce type (qu'avec des 0 et des 1), un ordinateur ne pourrait même pas téter sa maman et en prendre conscience (disons qu'il serait incapable d'auto-référence à sa propre mémoire et d'analyse subjective voir critique de sont propre programme, et pour le moment je ne voie pas trop comment l'IA pourrait se sortir de cela... Enfin, à voir avec l'arrivée des ordinateurs quantiques et de la nano/biotechnologie :a1: ...).

Avatar de l’utilisateur
Nicolas78
Messages : 11460
Inscription : 04 janv. 2013, 15:32

Re: Gérard Berry : « L’ordinateur est complètement con »

#138

Message par Nicolas78 » 09 mars 2015, 16:32

J'ai aussi une question : qu-est ce qui fait que seul la matière organique permet l'apparition de la conscience ?
Est-ce une "simple" histoire d'ADN (de chimie) ?

Si oui, n'est ce pas ridicule de tenter de crée un conscience sans chimie/biologie ?

Avatar de l’utilisateur
spin-up
Modérateur
Modérateur
Messages : 6321
Inscription : 23 févr. 2012, 12:01

Re: Gérard Berry : « L’ordinateur est complètement con »

#139

Message par spin-up » 09 mars 2015, 17:50

Nicolas78 a écrit :J'ai aussi une question : qu-est ce qui fait que seul la matière organique permet l'apparition de la conscience ?
Rien ne prouve que "seule la matière organique permet l'apparition de la conscience". C'est juste ce qu'on observe en ce qui concerne la vie terrestre.

Apres, l'apparition spontanée de vie puis de conscience, ca c'est une question de chimie. La chimie organique (basee principalement sur le carbone, l'oxygene, l'azote et l'hydrogene) est probablement (je crois?) la plus favorable a l'apparition d'un grand nombre de molecules maleables.

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#140

Message par Raphaël » 09 mars 2015, 18:40

Dash a écrit :
Raph a écrit :...puisque les décisions humaines sont faites à partir d'une réflexion.
Pas toute! Juste celles 100% "techniques". La majeure partie des autres ne sont qu'en fait que des justifications~rationalisations de ce qui est déjà décidé inconsciement par des "programmes" justement.
Je le sais. Ce que j'ai voulu dire c'est: certaines décisions humaines (mais pas toutes). ;)

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#141

Message par Raphaël » 09 mars 2015, 18:48

f.didier a écrit :Le jour où sera mit au point un système avec des millions de processeurs qui pourront communiquer entre eux, ce jour là, y a des chances que l'ordinateur puisse s’éveiller.
Encore là si on croit qu'un ordinateur peut s'éveiller par lui-même comme ça sans raison ça devient de la pensée magique. Toutes les fonctionnalités qu'on retrouve sur un ordinateur ont dues être comprises et programmées. Il n'y a rien qui est apparu par magie et je ne vois pas pourquoi ce serait différent pour la conscience.

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#142

Message par f.didier » 09 mars 2015, 18:53

C'etait une facon de dire Raphaël.
Tant qu'on aura un système du traitement de l'information en serie, donc, l'une apres l'autre, et pas comme un cerveau, qui traite des informations en même temps, quand un neurone travaille, les autres ne sont pas au repos, ils bossent aussi. On ne pourra jamais avoir un ordinateur qui sera suffisamment performant pour devenir une IA. Pour "s’éveiller" entre ".
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#143

Message par Raphaël » 09 mars 2015, 19:12

f.didier a écrit :C'etait une facon de dire Raphaël.
Je le sais. Je ne te visais pas spécifiquement par ma réponse mais je répondais à ceux qui croient que la conscience pourrait apparaître comme par magie.
Tant qu'on aura un système du traitement de l'information en serie, donc, l'une apres l'autre, et pas comme un cerveau, qui traite des informations en même temps, quand un neurone travaille, les autres ne sont pas au repos, ils bossent aussi. On ne pourra jamais avoir un ordinateur qui sera suffisamment performant pour devenir une IA.
Des IA on peut en faire autant qu'on veut mais dans l'état actuel des connaissances c'est impossible de reproduire un cerveau humain (ni de le simuler correctement).

Avatar de l’utilisateur
switch
Messages : 1883
Inscription : 18 nov. 2010, 09:46

Re: Gérard Berry : « L’ordinateur est complètement con »

#144

Message par switch » 09 mars 2015, 23:52

f.didier a écrit : On ne pourra jamais avoir un ordinateur qui sera suffisamment performant pour devenir une IA. Pour "s’éveiller" entre ".
C'est faux, un ordinateur ne se limite pas à un seul processeur.

Aujourd'hui on sait faire faire fonctionner plus d'un ordinateur ensembles et on peut construire des calculateurs géants avec des puissances de calcul répartis sur des milliers de processeurs.

Et on sait églaement construire des circuits dédiés : https://www.humanbrainproject.eu/-/a-co ... l-neurons-
« La Science est une méthode pour décider si ce que nous choisissons de croire se base ou non sur les lois de la Nature ».

Avatar de l’utilisateur
Christian
Messages : 5939
Inscription : 03 sept. 2003, 15:59

Re: Gérard Berry : « L’ordinateur est complètement con »

#145

Message par Christian » 10 mars 2015, 02:42

switch a écrit :
f.didier a écrit : On ne pourra jamais avoir un ordinateur qui sera suffisamment performant pour devenir une IA. Pour "s’éveiller" entre ".
C'est faux, un ordinateur ne se limite pas à un seul processeur.

Aujourd'hui on sait faire faire fonctionner plus d'un ordinateur ensembles et on peut construire des calculateurs géants avec des puissances de calcul répartis sur des milliers de processeurs.

Et on sait églaement construire des circuits dédiés : https://www.humanbrainproject.eu/-/a-co ... l-neurons-
Exact. L'informatique devient de plus en plus complexe. En plus des circuits dédiés, on peut utiliser la puissance des cartes graphiques pour libérer le processeur central: programmation GPU.
« I suppose it is tempting, if the only tool you have is a hammer, to treat everything as if it were a nail. »
« J'imagine qu'il est tentant, si le seul outil que vous avez est un marteau, de traiter tout problème comme si c'était un clou »

Abraham Maslow

Avatar de l’utilisateur
Chanur
Messages : 1489
Inscription : 14 déc. 2013, 10:58

Re: Gérard Berry : « L’ordinateur est complètement con »

#146

Message par Chanur » 10 mars 2015, 03:05

Christian a écrit :Exact. L'informatique devient de plus en plus complexe. En plus des circuits dédiés, on peut utiliser la puissance des cartes graphiques pour libérer le processeur central: programmation GPU.
Ouais ...
Un peu plus haut, on parlait de l'Amiga. ;)
Il y a une trentaine d'années, disons ...
Le fait que je sache que quelque chose est vrai n'est pas une preuve. :chat:

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#147

Message par yquemener » 10 mars 2015, 03:38

Bon, beaucoup de messages, je commence par deux réponses génériques:

1 et 0: Un ordinateur réduit toutes ces informations sous forme de 1 et de 0, c'est vrai, tout comme notre cerveau réduit ça sous forme de potentiels d'actions, des pics de '1'. Ça ne dit strictement rien sur les capacités de représentation symbolique de plus haut niveau. Notre cerveau module en effet les potentiels en fréquence et un ordinateur va grouper les bits pour obtenir des représentations numériques qui peuvent être plus précises qu'il ne serait physiquement possible de les représenter de façon analogiques. Donc si vous pensez que le codage binaire empêche la représentation de certaines choses que le cerveau peut représenter, merci de ne pas l'affirmer, mais de le prouver.

Comparaisons de performance entre cerveau et ordinateurs: C'est un exercice assez casse-gueule car il dépend de pas mal de paramètres et perso la dernière fois que je l'ai fait, j'ai un facteur 1000 qui dépend des différents choix de départ. Mais je tiens à dire que l'analogie 1 CPU = 1 neurone est absurde. Un CPU est un calculateur généraliste à haute fréquence. Un neurone est un additionneur-seuileur à basse fréquence. Simuler un neurone ne demanderait que quelques centaines de transistors si on souhaitait faire une architecture spécialisée.

Intelligence et définition: L'intelligence est un terme vague, mais personnellement quand mon interlocuteur ne donne pas de définition précise, j'utilise la mienne, une définition d'ingénieur utilitariste, à savoir "capacité de traitement de l'information qui permet d'accomplir toutes les tâches actuellement accomplies par des humains". Cela inclut la capacité à comprendre les émotions et à réagir de façon émotionnelle sans se poser la question de savoir si ces réactions sont réelles ou non.

Conscience et définition: La conscience est un terme un peu beaucoup plus vague. J'ai dit plus haut qu'il s'agissait pour moi de l'illusion selon laquelle le sujet de nos sensations est un concept à part, un être qui a une essence particulière, et donc que cette illusion serait assez facile à reproduire au sein d'un programme. Si vous utilisez une définition différente, merci de l'expliciter. Notez que c'est un exercice difficile. Personnellement c'est lorsque j'ai sincèrement essayé de trouver une définition de la conscience que j'ai cessé de croire que c'était plus qu'une illusion.

Le coté artificielle: Notre intelligence et notre conscience ne sont pas artificielles (sauf si vous croyez en Dieu ou dans la théorie des anciennes races aliens). Une IA sera artificielle, par définition. Donc en effet, vous pouvez créer des définitions excluant l'artificialité, mais comprenez que c'est faire une prémisse de la conclusion. Si vous faites cela, c'est alors votre définition qu'il faudra défendre.

Réponse générique pour Dave: Je maintiens que tu jongles avec des définitions contradictoires et circulaires de la conscience. Oui, j'ai lu et je pense avoir compris ton message. Oui, ma position est falsifiable : il suffit de prouver que certaines fonctions du cerveau sont non-computables. Alternativement, en effet, si on prouvait que la conscience humaine sait trancher des indécidables, ce serait une preuve également. Et en effet, tu peux créer des définitions de la conscience et de l'intelligence qui excluent qu'elles soient programmables, tout comme je peux créer des définition de la moralité qui prouvent qu'il faut être Breton pour avoir de la moralité. Ce sont des définitions possibles mais sans grand intérêt à mon avis.

Wooden Ali: Que veux tu, ce thread montre que la plupart des gens préfèrent penser l'IA impossible plutôt que de penser les changements sociaux qu'elle pourrait amener. Mais dans le domaine de la robotique, pas mal de gens se mettent à parler de revenu universel dés qu'ils envisagent les conséquences de l'automatisation généralisée de la production de biens.

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#148

Message par yquemener » 10 mars 2015, 04:06

Raphaël a écrit :Autre exemple: je remplace le terroriste par un ourson en peluche parlant qui tient un pistolet à eau. Résultat: le pauvre ordi attardé va se faire rouler (un jeu d'enfant finalement de tromper une IA. 8=) ).
Bon, ignorons le fait que si un ours en peluche me donne un ordre à plusieurs millions de kilomètres de la Terre là où rien n'est censé se trouver, moi aussi j'obéis :-)

Ce que tu soulèves est le problème de l'intelligence spécialisée vs intelligence générique. Je tenais simplement à illustrer les capacités de création de plans face à des circonstances non prévues pour te montrer que dans ces cas précis et relativement délimités (avaries au sein d'une mission spatiale relativement complexe) une forme de réflexion est aujourd'hui atteinte par des programmes. À savoir un raisonnement peut être produit sans que le programmeur ne l'ait anticipé.

Bien sur on n'a pas encore d'IA générique. Et une des raisons, tu la pointes, c'est que le savoir de ces programmes est rentré à la main. On sait faire des programmes qui raisonnent, on sait faire des programmes qui apprennent, mais on a pas encore de programmes qui fassent les deux en même temps: apprendre des éléments pour les intégrer à un raisonnement (à part peut être Eurisko, dans un domaine très spécifique là encore). C'est à cet aspect là que je m'intéresse en ce moment d'ailleurs.

Le problème principal que tu poses dans ton scénario est la compréhension de l'intention d'un interlocuteur. (Ainsi que de tenter de juger de sa crédibilité, mais ce problème là est à mon avis plus facile) Bien évidemment, une sonde spatiale n'est pas conçue pour interagir avec des humains hostiles lors de sa mission. Mais imaginons un instant, par exemple, un robot militaire (d'exploration et désarmé) et voyons comment te faire une réponse complète:

- De quelles connaissances a-t-il besoin
- Comment aurait-il pu acquérir ces informations sans qu'un programmeur humain ne les lui donne

1) Connaissances nécessaires: Pouvoir reconnaître une arme. Pouvoir reconnaître un pistolet à eau. Savoir qu'un pistolet à eau est inoffensif. Savoir que certains humains sont des ennemis. Savoir qu'un ennemi qui donne un ordre en pointant une arme vers son interlocuteur transmet le message "je tire si tu n'obéis pas".

2) Je suppose que tu ne serais pas satisfait si je te disais "toutes ces informations, on peut les rentrer à la main." pourtant il y a une initiative qui vise à créer une base de données du "bon sens" qui fait exactement ce genre de chose: Cyc et OpenCyc. Mais voyons voir comment les acquérir d'une façon plus automatique.

Un humain qui n'aurait jamais vu un pistolet à eau pourrait se méfier de cet étrange truc qui ressemble à un flingue. Cependant on ne dit pas aux soldats humains lors de leur entraînement qu'un pistolet à eau est inoffensif. On suppose qu'ils le savent. Parce qu'ils ont plusieurs années d'apprentissage derrière eux, à expérimenter, jouer, apprendre. Il faudrait à un robot un tel environnement, virtuel ou réel pour faire cet apprentissage.

Une observation pourrait simplement être qu'il a vu un jour chez Toys 'r us des pistolets à eau et sait qu'on ne vend rien de dangereux pour les enfants dans un magasin de jouet. Que ce qui n'est pas dangereux pour les enfant n'est pas dangereux pour les adultes normaux, que l'on ne peut pas menacer avec une chose non-dangereuse, et donc qu'il peut ignorer cette menace.

Un raisonnement similaire peut amener à comprendre qu'un ours en peluche ne peut avoir aucune intentionnalité (à moins d'être doté d'une IA du coup!)

Comprendre que pointer une arme est une menace implicite, personnellement, ne me vient pas de cas réel où je l'ai vu faire, mais de nombreux films ou livres où ce cas se présente. C'est en fait une norme sociale: on ne pointe pas une arme vers quelqu'un. Le faire est perçu comme un acte d'hostilité. Les gens qui le font espèrent donc gagner quelque chose en faisant cela: diriger les actions de la personne menacée. Cela peut fonctionner car la plupart des humains souhaitent survivre.

Une fois ces informations acquise, la situation est modélisable: le menaçant a un objectif (a priori indéfini) qu'il va tenter d'implémenter via l'ordre donné. Le menacé a également des objectifs, dont généralement la survie. Dans le cas d'un robot, cela contraint énormément son action de devoir obéir à des injonctions extérieure, d'autant plus que la menace suppose généralement des objectifs contradictoires.

En fonction de ses ordres antérieurs, il peut décider de ne pas obéir et de se laisser détruire, de survivre le plus longtemps possible pour essayer de tout de même mener sa mission à bien, ou de tenter d'améliorer sa modélisation du système en tentant de comprendre l'objectif du menaçant et de déduire la marge de manœuvre que cela lui laisse.

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: Gérard Berry : « L’ordinateur est complètement con »

#149

Message par Dash » 10 mars 2015, 08:19

Je suis d'accord avec yquemener concernant ses derniers propos (entre autres). De plus, il explique bien comment il serait relativement facile de modéliser diverses situations.

Je pense aussi que certains ont tort de penser qu'un humain n'a pas besoin d'être programmé VS une IA. La nuance étant que l'humain n'est pas « programmé » par une intelligence~volonté externe (un programmeur), mais par la suite des diverses résultantes d'expériences. Quand un humain se brûle en touchant quelque chose, nous disons qu'il vient « d'apprendre » que de toucher à cette chose (dans les mêmes circonstances) le brûle, mais au-delà des mots, il vient en fait d'être « programmé ». La seule différence est que c'est une suite d'essais/d'erreurs qui le programme et que chaque nouvelle suite peut modifier, ajuster, préciser ce qui est déjà programmé. Et tout ceci est forcément modélisable.

En fait, le seul et unique «programme » de « bas niveau » qui m'apparaît être déjà présent en chaque individu dès sa naissance est : plaisir/douleur (donc 0/1) (et l'infinitude d'états intermédiaires sur le continuum entre les deux extrêmes) qui sert à déterminer tout le reste (avant complexification systémique).

Le mot « apprendre » n'est qu'un mot qui désigne (en terme de processus) le processus de formation d'un programme au sein d'un système sans qu'il y ait de « programmeurs~volontés externes ». L'humain actuel s'est « programmé » (a appris) sur des millions d'années de par l'évolution (et au cours de son enfance et du reste de sa vie à l'échelle de l'individu).

________________________

Sinon juste pour le plaisir d'extrapoler...

La raison pour laquelle je disais un peu plus tôt que je pense qu'une véritable IA aura nécessairement besoin d'un support « hardware » biologique est dans le fait qu'une IA doit nécessairement posséder le moyen de modifier elle-même ses propres composants ou constituants pour avoir la possibilité d'adapter la structure interne de son « cerveau » en rapport avec son propre apprentissage (tout comme le cerveau a évolué pendant l'évolution pour permettre de nouvelles fonctions ou combler certains besoins, etc.). Ce n'est donc pas tant l'aspect biologique comme tel qui importe àmha que la propriété (la capacité, la possibilité) à se modifier (hardware) d'elle-même.

Autrement dit, pour recréer une véritable IA on devra lui permettre (de faire des erreurs) d'évoluer par elle-même, mais pas seulement au niveau de ses programmations (software), mais aussi de ses propres constituants physiques. On doit lui permettre de pouvoir suggérer d'elle-même ce qu'elle voudrait modifier dans la structure même de ses propres composants (hardware : chips , UC, mémoire, structure, type de techno, etc.), au lieu de décider nous même en fonction de notre propre expérience et évolution calquée sur notre cerveau.

Parce que le problème àmha, c'est qu'on tente de reproduire avec des « chips non biologiques » une intelligence (le cerveau) qui utilise de la matière organique qui s'adapte (lentement, mais sûrement, par la sélection naturelle) tout en décidant nous-mêmes (par rapport à notre intelligence et cerveau) comment agencer des composants non biologiques. Elles doivent, non seulement pouvoir modifier leur programmation, mais aussi leur « propre cerveau ».

yquemener, y-a-t-il des expériences en cours où l'on attend de l'IA qu'elle requière d'elle-même des changements hardware la concernant?

Moi, je pense que tout va passer par là! Quand on lui laissera décider (à la suite d'essais/d'erreurs ) comment se construire et se modifier au niveau de son propre hardware, elle trouvera des solutions d'elle-même auxquels nous n'aurons pas encore pensé. Tant que cela viendra que de nous, paradoxalement, nous ne la laisserons pas assez se tromper et expérimenter et, nécessairement, nous contraignons sa possible évolution qu'à l'intérieur de ce que l'on connaît déjà (par rapport à nous et notre cerveau) ce qui limite toute expérience à de « fades clones ou calques » de cerveaux humain*, mais sans les avantages que procure l'évolution et l'adaptation de la matière organique. Si l'intelligence de l'homme « s'est faite d'elle-même » sans l'intervention d'une « volonté supérieure », toute IA doit (devrait pouvoir) également se façonner (en grande partie, sauf pour le coup de pouce du départ) d'elle-même. Pour compenser les propriétés de la matière organique (et de la sélection naturelle), nous devons seulement lui donner la possibilité de faire elle-même (ou nous dire quoi faire) les changements (hardware) qu'elle jugera nécessaires au cours de son apprentissage.

* Parce que même si nous pouvions reproduire intégralement la structure du cerveau humain avec des chips, etc., reste que de nouvelles connexions (physique) doivent pouvoir s'effectuer (live), comme lorsque nous pratiquons une activité à répétition. Il y a une notion de « plasticité » matérielle qui me semble évidente et nécessaire à toute forme d'intelligence. Si le« cerveau » d'une IA ou ce qui fait office de cerveau est statique, elle ne pourra pas procéder à une adaptation conjointe et simultanée (au quotidien) entre soft/hard.

Ces types de questions sont-elles soulevées en recherche d'IA?
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#150

Message par f.didier » 10 mars 2015, 09:30

yquemener, y-a-t-il des expériences en cours où l'on attend de l'IA qu'elle requière d'elle-même des changements hardware la concernant?
Alors, je peux repondre a cette question :
Non, et pour une bonne raison, on ne change pas les pièces d'un ordinateur alors qu'il est allumé. Il ne prendra a personne l'idée de débrancher le HDD ou changer la RAM pendant que l'ordi tourne encore. Si on le fait, on va provoquer un court circuit qui va griller les pièces majeures, et bye bye l'ordinateur.
A la rigueur, les composants simples sur port usb, comme clavier, souris ou les cam.
Pour une IA, c'est la même chose, pour changer une pièce, on doit l’éteindre. C'est pour ca que un peu avant, je disais que éteindre une IA, c'est pas la tuer, car pour la faire évoluer au niveau hardware, faut l’éteindre. Or, si le scientifique doit tuer l'IA a chaque fois qu'il veut rajouter un HDD et tout recommencer, ca va pas l'amuser longtemps.
Pro technologie
Pro verichip
Pro robotique

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : externo, jean7