Page 3 sur 5

Re: Un robot devant un miroir

Publié : 11 janv. 2012, 19:28
par yquemener
Red Pill a écrit :Tu sais Y. Si on a envie de se laisser conduire, lire un livre en cour de route et sans se préoccuper de trouver une place pour stationner c'est déjà possible. On prend CECI ou on appelle CELA....... ;)
Oui, solutions inférieures au niveau de la qualité et d'un prix excessif dans le cas du taxi. Il leur manque la sécurité et la disponibilité des voitures automatiques. Ceci dit, de nombreuses technologies sont superflues dés que l'on s'attribue des domestiques. JE suis d'accord que si j'avais une voiture avec un chauffeur, j'aurais assez peu besoin d'une voiture automatique.

C'était le futur...

Publié : 11 janv. 2012, 19:39
par Raphaël
kestaencordi a écrit :je veux volontier sacrifier le plaisir que j'ai a conduire considerant que en retour l'efficacite du reseau routier serait surement multiplier par 100. la fluidite du trafic gerer par un systeme central de gestion qui connais l'itineraire de chaques vehicules. eliminant ou presque les arrets et lumieres au intersection. en ville.
...
plus de panne d'essence et d'accrochage enorme source de trafic. les cotisation d'assurance , la surveillance policiere des routes inutiles. et surtout mini bar sous le lazy boy de chaques passager etc etc.

j'ai pas fume. je suis juste pas ne dans le bon siecle. quoique dans 40 ans...
Ça me rappelle la façon qu'on imaginait le futur dans les années 60's. Plus besoin de travailler ou de faire le ménage; les robots feraient tout à notre place. On n'aurait plus qu'à se prélasser dans nos bolides volants, se rendre sur le plus belles plages du monde, visiter les plus belles villes, aller prendre un café à Paris et revenir au Québec la même journée si on le voulait, réserver nos vacances dans des stations lunaires ou martiennes et profiter de la vie et du beau temps sans se faire le moindre souci. J'avais tellement hâte de vieillir pour arriver à l'an 2000 et avoir ma propre voiture volante amphibie qui me permettrait d'explorer ce monde futuriste extraordinaire.
Futur 2.jpg
http://jpdubs.hautetfort.com/archive/20 ... futur.html

Malheureusement, la réalité du quotidien m'a rattrapé. On en rendu en 2012 et je n'ai encore rien de tout ça. Je suis encore pris pour travailler, faire le ménage, me déplacer dans une voiture ou un bus tout à fait banal et essayer de profiter au mieux de mes petites vacances de 3 semaines par année avec ce que mon petit budget me permet. Mais je me dis que c'est quand même une chance qu'on puisse rêver; ça rend la vie plus belle et plus facile à accepter, surtout quand on est jeune.

Re: Un robot devant un miroir

Publié : 12 janv. 2012, 01:13
par kestaencordi
http://www.youtube.com/watch?feature=pl ... OMIBdM6N7Q

voila qqn ui repousse les limites de la technologie. je note que l'integration d'un mamifere dans le systeme. nous permet de le decrire comme un systeme bio-mecanique dote d'intelligence.

Re: Un robot devant un miroir

Publié : 12 janv. 2012, 04:27
par Digipal
kestaencordi a écrit :http://www.youtube.com/watch?feature=pl ... OMIBdM6N7Q

voila qqn ui repousse les limites de la technologie. je note que l'integration d'un mamifere dans le systeme. nous permet de le decrire comme un systeme bio-mecanique dote d'intelligence.
Son système n'est pas tout à fait au point... Il doit impérativement avoir fini de lire la page, ou dans le cas ou il a déjà fini de la lire, il doit attendre que le "mécanisme" se mette en branle, en réarmant son mécanisme, puis en prenant une autre gorgée de son liquide, et attendre encore tout le temps pour que le mécanisme fasse son travail! Lire le journal, dans son cas, c'est un job à temps plein!

Y a-t-il un robot qui ferait mieux que ça?

Re: C'était le futur...

Publié : 12 janv. 2012, 14:11
par yquemener
@Raphael : j'ai dans ma bilbiothèque un recueil de SF que je conserve pour une unique nouvelle mais aussi pour son prologue. "Un logic nommé Joe", écrite dans les années 40 par un mathématicien. Il y décrit un monde dans lequel la plupart des gens possèdent un "logic" (le mot "ordinateur" n'existait pas) relié aux autres logic par un réseau ressemblant au réseau téléphonique, s'échangeant des informations et même des vidéos. Il imagine les problèmes survenant quand un de ces logic se met à répondre à toutes les questions que chacun se pose, depuis le diamètre de la lune à la meilleure façon d'empoisonner sa belle mère. Bref, une nouvelle prédisant l'arrivée des ordinateurs individuels, d'internet, de la wikipedia.

Ceci dit, le prologue est aussi intéressant : le recueil date des années 70. L'éditeur commente donc la nouvelle comme un objet intéressant mais ne peut s'empêcher un certain scepticisme. Il note que certaines personnes croient que l'ordinateur deviendra un ordinateur personnel dans la décennie suivante, et que donc cette nouvelle a encore une chance de se réaliser mais présente plus cette nouvelle comme une curiosité.

Ce n'est pas parce que ça fait 40 ans qu'on prédit l'automatisation totale du travail (en pratique ça fait bien plus de temps que ça) que cette prédiction ne reste pas crédible. Elle a été retardée pendant deux décennies car on a préféré transformer la Chine en l'usine du monde plutôt que de financer de la recherche en robotique, mais cette période touche à sa fin. La Chine devient trop cher, les quelques pays plus compétitifs ont vite été saturés ou ne disposent pas des infrastructures nécessaires. Des géants comme Foxconn voient dans la robotisation leur prochaine étape de réduction des coûts de production.

Et il est vrai qu'à l'échelle mondiale, on travaille moins. Ça n'est pas une baisse aussi énorme que la SF l'aurait voulu, mais c'est une baisse, c'est une tendance. Le modèle consumériste vit sa fin, de nombreux travailleurs préfèrent aujourd'hui obtenir du temps libre plutôt qu'une augmentation. Ils ne sont pas la majorité, certes pas, mais leur nombre augmente.

Je considère cette prédiction comme toujours valable, simplement retardée. D'après certains, un autre facteur est que la plupart de ces prédictions avaient été faites dans le cadre de la guerre froide où deux camps tentaient agressivement de défendre leur mode de vie, de l'améliorer et de le présenter sous le meilleur jour. La chute de l'URSS (que quasiment aucun auteur n'a osé prédire) a fait de l'amélioration du niveau de vie moyen un chantier moins urgent...

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 01:14
par Dave
Salut yquemener. C'est très intéressant ce que vous dites.

Je me pose la question suivante.

Si la conscience est un « comportement (?) » programmable, qu'est-ce qui n'est pas programmable?

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 14:42
par yquemener
Dave a écrit :Si la conscience est un « comportement (?) » programmable, qu'est-ce qui n'est pas programmable?
Certains problèmes théoriques ne sont pas programmables (calculables). Un exemple :
http://fr.wikipedia.org/wiki/Probl%C3%A ... arr%C3%AAt

Si ta question est plutôt de chercher un comportement existant dans notre univers et non programmable, je n'en ai jamais vu un seul exemple. Il y a une position philosophique qui dit que notre univers est probablement une simulation informatique. Rien ne semble l'interdire.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 15:13
par Etienne Beauman
Salut Yquemener,
je n'en ai jamais vu un seul exemple
Quid des émotions, du goût, du doute ?
Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complétement différents.
L'humain peut faire les deux, pas les machines.
Une machine n'aura jamais le vertige, ne sera jamais fan de claude François, ne tombera pas amoureux, ne fera jamais de lapsus (révélateur ou pas), etc. la liste est sans doute infinie.
La conscience n'est pas le fruit d'un programme, mais celui d'un conflit entre les différents instincts, pulsions, traumatisme, désirs, automatismes, aspirations, désordres hormonaux, peurs, angoisses, croyances, expériences, etc. et j'en oublie surement.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 15:39
par yquemener
Etienne Beauman a écrit :Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complètement différents.
Proposez moi un test en double aveugle qui permette de faire la différence et je vous proposerai une machine qui passe ce test.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 16:24
par Etienne Beauman
yquemener a écrit :
Etienne Beauman a écrit :Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complètement différents.
Proposez moi un test en double aveugle qui permette de faire la différence et je vous proposerai une machine qui passe ce test.
Je comprends pas.
Une femme qui a un orgasme ou une femme qui simule un orgasme, c'est pas du tout pareil. Pas de besoin de protocole pour en être convaincu, si ?
Une femme ne peut pas décider d'avoir un orgasme sur commande, c'est si ça vient pas qu'elle simule. (et alors elle improvise un truc plus ou moins convaincant)
Si un robot est programmé pour savoir faire quelque chose, il peut la faire sur commande (c'est l'idée même d'un programme).
Donc quelque soit le test que réussirai la machine il n'y aurait pas une action et son simulacre, mais deux actions différentes programmées toutes les deux, et répondant à deux contextes différents ou s'alternant au hasard selon la volonté du programmeur, pas de la machine.
Une machine ne peut pas simuler. Elle exécute.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 16:51
par yquemener
Etienne Beauman a écrit :Une femme qui a un orgasme ou une femme qui simule un orgasme, c'est pas du tout pareil. Pas de besoin de protocole pour en être convaincu, si ?
Comment croyez vous que l'existence de l'orgasme féminin a été prouvé aux scientifiques sceptiques (mâles principalement) ? Comment pensez vous que l'on puisse dorénavant savoir que l'orgasme féminin peut avoir deux formes, clitoridien et vaginal ? Un fait intéressant également, la femme semble avoir plus de contrôle que l'homme sur son orgasme. Si les conditions sont réunies, elle peut décider ou non d'en avoir un de façon à peu près consciente. Ce n'est donc pas spontané, mais pas non plus simulé et on l'a prouvé. Comment pensez vous que l'on ait établi des connaissances aussi précises sans protocole expérimental ?
Etienne Beauman a écrit :Si un robot est programmé pour savoir faire quelque chose, il peut la faire sur commande (c'est l'idée même d'un programme).
Il suffirait donc de créer une machine refusant d'obéir à vos ordre pour passer votre test ?
Etienne Beauman a écrit :Donc quelque soit le test que réussirai la machine il n'y aurait pas une action et son simulacre, mais deux actions différentes programmées toutes les deux, et répondant à deux contextes différents ou s'alternant au hasard selon la volonté du programmeur, pas de la machine.
Une machine ne peut pas simuler. Elle exécute.
Si vous êtes incapable d'établir un test objectif, vous devriez vous ouvrir à la possibilité que la chose que vous souhaitez démontrer n'existe peut être pas.

Que pensez vous du test du Turing ? Pensez vous qu'une machine n'arrivera jamais à le passer ou qu'il n'est pas valable ?

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 17:31
par Etienne Beauman
yquemener a écrit :Comment croyez vous que l'existence de l'orgasme féminin a été prouvé aux scientifiques sceptiques (mâles principalement) ? Comment pensez vous que l'on puisse dorénavant savoir que l'orgasme féminin peut avoir deux formes, clitoridien et vaginal ? Un fait intéressant également, la femme semble avoir plus de contrôle que l'homme sur son orgasme. Si les conditions sont réunies, elle peut décider ou non d'en avoir un de façon à peu près consciente. Ce n'est donc pas spontané, mais pas non plus simulé et on l'a prouvé. Comment pensez vous que l'on ait établi des connaissances aussi précises sans protocole expérimental ?
Je comprends toujours pas.
Je n'ai pas dit qu'un orgasme était soit spontané soit simulé. J'ai dit qu'une femme qui ne parvient pas à l'orgasme peut feindre d'en avoir un.
Il suffirait donc de créer une machine refusant d'obéir à vos ordre pour passer votre test ?
Quel test ?
J'ai justement dit que quelque soit le test on ne peut pas mettre en évidence qu'une machine simule, ça veut rien dire pour une machine simuler.
Soit elle sait faire quelque chose et elle le fait, soit elle ne sait pas la faire et elle ne la fait pas, mais jamais elle fera semblant de faire quelque chose. Elle fera au mieux quelque chose qui consiste à faire ce que font les humains quand ils font semblant de faire quelque chose.
Une machine entrain de simuler une action qu'elle saurait faire par ailleurs ne serait qu'entrain de faire une autre action (plus ou moins identique en fonction de la volonté des programmeurs) qui a été programmée pour faire croire qu'elle simule et réussisse le test.
Je vais prendre un exemple pour être mieux compris :
On arrive je sais pas comment à donner le sens de l'humour à un androïde.
Il rit à certaine blague mais pas à toutes, il a une sorte de goût, (on peut même imaginer que son goût puisse évoluer dans le temps).
dans certaine situation un humain peut faire semblant de rire, il se force alors qu'il ne trouve pas cela drôle. Un androïde ne se forcera pas, soit il rira aux blagues drôles soit il rira dans certain cas où c'est pas drôle uniquement si on l'a programmé pour cela, et il rira de la même façon que quand c'est drôle sauf si on lui programme une façon différente (dans le but de convaincre une assemblée qu'il est capable de simuler par exemple et qu'on peut observer des légères différences entre son rire naturel et son rire forcé, sauf que c’est un leurre les deux sont programmés), en aucun cas il n'essaiera de reproduire un rire naturel, tout en ressentant une petite gène parce c'est pas drôle.
yquemener a écrit :Que pensez vous du test du Turing ? Pensez vous qu'une machine n'arrivera jamais à le passer ou qu'il n'est pas valable ?
Que c'est hors sujet.
Le test de Turing s'il est réussi prouve qu'une machine peut se faire passer avec succès pour un humain pas qu'elle est consciente.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 18:20
par yquemener
J'hésite à répondre point par point ou à me focaliser sur ce qui me semble essentiel. Je propose de recentrer le débat, n'hésitez pas à me héler si vous considérez que j'esquive ainsi un argument important.

Je pensais que nous parlions de la possibilité de programmer des émotions. Je prétends que toutes les caractéristiques d'une émotion sont tout à fait programmables. Je ne comprends pas vos arguments. Qu'une machine "fasse semblant" ou non, si elle parvient à accomplir de façon fiable toutes les réactions émotionnelles souhaitées, on dira d'un point de vue informatique que la tâche a été correctement programmée.

Votre critique semble être que programmer une émotion, ce n'est pas la même chose que ressentir une émotion. C'est vrai, car "ressentir une émotion" implique une réaction à la réaction émotionnelle elle même. C'est une tâche différente, tout à fait programmable également. On pourrait généraliser cette tâche en disant qu'il s'agit de réagir (éventuellement de façon émotionnelle) à son propre état émotionnel. Des systèmes réagissant à leur état interne sont légion, le faire de façon émotionnelle n'a rien d'incalculable. Il s'agit d'un système à boucle fermée dont les comportement peuvent être très intéressants, chaotiques (au sens mathématique du terme) et difficiles à anticiper.

Je vous rétorquerai donc que l'on peut tout à fait programmer une machine pour que ses réactions soient conformes à ce que l'on attend d'un humain qui ressent des émotions. Une machine ne peut pas sortir des comportements, plus ou moins souples, de sa programmation, cela est vrai. Mais en est-il différemment de nous ? Nous obéissons à un programme comportemental, que l'on nomme notre "caractère". Sauf s'il s'agit de prouver que nous pouvons nous en affranchir (et que c'est dans notre caractère d'avoir un certain esprit de contradiction) nous le suivons.

Savez vous que les humains sont incapables de se comporter de façon aléatoire ? Un bon programme est capable de gagner dans 65% des cas contre un humain à "papier-caillou-ciseaux". Cette proportion devrait être de 50% si nous étions capables de nous affranchir de notre programmation. Un programme devine en partie le cheminement humain "ça fait longtemps que j'ai pas joué caillou" ou "rien que pour avoir l'air aléatoire je vais faire une séquence de trois ciseaux". Il existe des personnes capables de jouer réellement aléatoirement mais celles-ci, c'est très ironique, calculent consciemment le résultat d'un algorithme dans leur tête.

Ce n'est pas parce que nous n'avons pas conscience du programme qu'il n'existe pas.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 20:03
par Etienne Beauman
on dira d'un point de vue informatique que la tâche a été correctement programmée.
Mais c'est justement là le cœur du sujet, la majorité de nos comportements ne répondent à aucune tache programmée mais au contraire sont plutôt des errances du à un manque d'instruction.
Quand on se brûle, l'idée c'est de retirer la main pour éviter que les tissus ne subissent trop de dégât, la douleur est utile et réponds à un programme tout con pas touche sinon bobo, sauf que l'information une fois comprise ne disparait pas, elle persiste ça fait toujours mal alors que j'ai retiré ma main du feu, j'ai beau avoir conscience des dégâts, avoir passer ma main sous l'eau mis de la pommade, j'ai toujours mal, mais cette douleur ne sert à rien au contraire elle me parasite.
Mais le corps envoie aussi de la dopamine, sans doute pour favoriser au départ la fuite ou l'agressivité face à une menace, et on a fait quoi ? le sadomasochisme ! :twisted:
On se fait mal volontairement !
Comment pourrais tu programmer un robot pour qu'il ne fasse pas certaines actions mais réussir à faire qu'il les fasse quand même ? C'est un échec qu'il faudrait tenter de programmer :|
Désolé de tourner autour du q (c'est mieux qu’autour du pot), mais c'est le parfait exemple de toutes une liste de comportement qui n'ont rien à faire des instructions de base, la nature a programmée (façon de parler) le plaisir sexuel pour être sûr que l'homme se reproduise, mais la conscience humaine a créé l’érotisme, l'exhibitionnisme, le fétichisme, et plein de pratique où la résultante en matière de fécondation tombe à zéro.
L'humain c'est ça une machine paradoxale qui fait tout et se contraire et qui essaye après coup de se justifier pourquoi elle a fait ça plutôt qu'autre chose.
En robotique on évitera le plus possible ce genre de bug, car on a aucune idée de où ça peut mener sinon à des plantages, les humains ont très peu de commande forte manger dormir se reproduire, le reste c'est que de l'impro conséquence des bugs et des limites des appareils sensitif évaluant l'extérieur et de l'adaptation au contrainte environnemental se perpétuant de génération en génération, la conscience n'est pas apparu du jour au lendemain.
Alors si tu arrives à ce qu'une machine reproduise un comportement similaire à celui d'un humain qui éprouve une émotion ne rend pas cette machine pour autant consciente et émotionnelle.
On peut pas détacher l'émotion de la conscience. C'est bien plus que "de réagir à son état interne".
Comment programmer la culpabilité, le regret, le remord, la fierté, la peur du futur, la confiance, l'impatience, la nervosité, la timidité, le manque, etc. ?

Une machine qui serait consciente éprouverait probablement des sentiments qu'on pourrait pas comprendre tout comme on comprends pas ce que ressens une vache regardant passer les trains, parce qu'on est pas câblé pareille.
Savez vous que les humains sont incapables de se comporter de façon aléatoire ?
C'est faux. Il faut toujours considérer l'homme dans son environnement, tu veux du hasard jette une pièce pile tu t'offres une bière, face tant pis.
L'homme c'est parfaitement s'en remettre au hasard, c'est juste sa notion d'à quoi ressemble des événements aléatoires qui est biaisée.

Re: Un robot devant un miroir

Publié : 18 janv. 2012, 20:48
par yquemener
Etienne Beauman a écrit :Comment pourrais tu programmer un robot pour qu'il ne fasse pas certaines actions mais réussir à faire qu'il les fasse quand même ? C'est un échec qu'il faudrait tenter de programmer :|
Alors en effet, en robotique on cherche à éviter ce genre de comportements parce que lorsqu'on fait un robot on a souvent un but précis en tête, et on essaie de faire une machine efficace qui accomplisse ce but. Les humains n'ont pas de tels buts ou plutôt ont une multitude de buts contradictoires. Réaliser une machine sur ce principe est possible mais reste du domaine de la curiosité.

Et on peut avoir de l'inattendu en programmation. Je me souviens avoir fait quelques essais d'IA. J'avais un algorithme que je voulais "créatif" dans sa façon d'explorer un labyrinthe et en effet il m'a proposé des solutions auxquelles je ne m'attendais pas : il me demandait si ce ne serait pas possible de modifier le labyrinthe lui même pour qu'il soit plus facile (pas bégueule il m'a demandé carrément de relier le départ à l'arrivée). Faire un truc qui tente de tricher est toujours possible.
Etienne Beauman a écrit :L'humain c'est ça une machine paradoxale qui fait tout et se contraire et qui essaye après coup de se justifier pourquoi elle a fait ça plutôt qu'autre chose.
C'est une bonne définition.
Etienne Beauman a écrit :Alors si tu arrives à ce qu'une machine reproduise un comportement similaire à celui d'un humain qui éprouve une émotion ne rend pas cette machine pour autant consciente et émotionnelle.
Je ne suis pas d'accord avec ce "alors". Ce qui le précède ne justifie pas du tout ce qui le suis.
Etienne Beauman a écrit :On peut pas détacher l'émotion de la conscience. C'est bien plus que "de réagir à son état interne".
Ah oui ? Même proposition : trouvez moi une définition objective et testable de la conscience et je vous propose une machine qui passe ce test.
Etienne Beauman a écrit :Comment programmer la culpabilité, le regret, le remord, la fierté, la peur du futur, la confiance, l'impatience, la nervosité, la timidité, le manque, etc. ?
(Grande inspiration) Eh bien allons-y :
Culpabilité : Il faut une façon d'évaluer la moralité d'une situation. La culpabilité est le feedback négatif que l'on injecte au système lorsqu'il a contribué à une situation immorale. On isole du mieux possible l'action précise qui est immorale et on concentre le poids négatif d'apprentissage dessus (j'aurais pas du mentir à cette question), si on ne trouve pas une action en particulier, on applique ce poids négatif à l'ensemble des actions (j'ai mal agi) voire si c'est trop flou à l'ensemble de la personnalité (je suis vraiment un connard).

Regret : À peu près le même mécanisme mais cette fois on ne juge plus la moralité de la situation mais le plaisir quelle apporte.

Remord : cf. Culpabilité.

Fierté : (il y a plusieurs sens à ce mot. Je décris là celui de "sens de l'honneur", plutôt que celui de vantardise) La fierté n'est rien d'autre que l'acceptation d'un ensemble de règles morales. C'est un but de plus du système que d'obéir à ces règles. Respecter sa parole, même lorsque rien ne l'y contrait et que c'est contraire à son intérêt est une de ces situations où on a des buts contradictoires. Ce genre de conflit est tranché de façon arbitraire par le caractère. On dira de quelqu'un qu'il est alors honorable ou égoïste et on en dirait de même pour un système. On voit également au passage qu'un système qui aurait pour but prioritaire d'être apprécié de la société humaine pourra faire le calcul de ne pas apparaître égoïste et prendra toutes les apparences de l'honorabilité, la simulant comme un humain le ferait. La différence entre une simulation de sens de l'honneur et un sens de l'honneur véritable peut s'établir de façon objective : mettez un système (informatique ou humain) dans une situation où il doit honorer une promesse contraire à son intérêt sans que personne ne puisse la vérifier et vous verrez si il simule ou non.


Peur du futur, impatience, Nervosité : On est là dans le domaine du stress, qui est un bug purement humain mais tout à fait reproductible. Une situation d'incertitude ayant potentiellement de mauvaises conséquences pour le système entraîne une situation de stress. De par notre évolution et notre corps, on réagit au stress en ayant des mouvements plus rapides, un corps plus alerte et des jugements plus rapides mais moins profonds. L'inaction est refusée. Ces comportements sont, pour un système totalement intellectuel, totalement contre-productifs mais on pourrait sans problème les reproduire.

Confiance : Modélisation d'une interaction humaine dans laquelle on estime que l'autre personne est capable d'ignorer dans une mesure plus ou moins grande son intérêt personnel pour préserver cette relation.

Timidité : Modélisation erronée d'une personne par le système qui l'incite à penser que cette personne réagira de façon négative à tout un ensemble d'actions.

Manque : Manque d'une substance ? Très facile : obtenir cette substance devient un objectif de plus en plus prioritaire au fur et à mesure que le temps passe.
Savez vous que les humains sont incapables de se comporter de façon aléatoire ?
C'est faux. Il faut toujours considérer l'homme dans son environnement, tu veux du hasard jette une pièce pile tu t'offres une bière, face tant pis.
L'homme c'est parfaitement s'en remettre au hasard, c'est juste sa notion d'à quoi ressemble des événements aléatoires qui est biaisée.
Mais j'ai le sentiment que vous diriez qu'une machine qui se comporte d'une telle façon ne suit qu'un algorithme.

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 01:03
par shisha
Un robot peut- il rêver ? ressentir ? imaginer ? imaginer quelque chose qui tend vers l'inconcevable ? trouver quelque chose d'incroyable et l'en aprécier sincèrement ?

Un robo pourra avoir les mêmes comportements qu'un humain d'après ce que dit yquemener, mais cela sera juste une façade, il n'en ressentira rien pour autant. (il dira "j'ai mal" mais n'en souffrira pas pour autant comme nous on peut le ressentir, n'est-ce pas?).

Re: C'était le futur...

Publié : 19 janv. 2012, 01:42
par Raphaël
yquemener a écrit :@Raphael : j'ai dans ma bilbiothèque un recueil de SF que je conserve pour une unique nouvelle mais aussi pour son prologue. "Un logic nommé Joe", écrite dans les années 40 par un mathématicien. Il y décrit un monde dans lequel la plupart des gens possèdent un "logic" (le mot "ordinateur" n'existait pas) relié aux autres logic par un réseau ressemblant au réseau téléphonique, s'échangeant des informations et même des vidéos.
Ceux qui réussissent à faire des prédictions à peu près correctes qui portent sur 40 ans ou plus dans le futur sont très rares. La très grande majorité des gens en sont complètement incapables. Je suis persuadé que si on avait questionné des gens en 1960 en leur demandant de nous décrire leur vision de l'an 2000, au moins 99% se seraient gourés en donnant des prévisions farfelues du genre voitures volantes, colonies de vacances sur Mars ou Vénus, médicaments qui guérissent toutes les maladies, société de loisirs où les machines font tout à notre place et où on peut baiser à longueur de journée et être heureux pour l'éternité parce qu'on aura découvert le secret de l'immortalité.
Ce n'est pas parce que ça fait 40 ans qu'on prédit l'automatisation totale du travail (en pratique ça fait bien plus de temps que ça) que cette prédiction ne reste pas crédible. Elle a été retardée pendant deux décennies...
C'est l'excuse classique de ceux qui font des prédictions qui ne se réalisent pas. La plupart sont incapables d'admettre leurs erreurs et continuent de prétendre que leurs prédictions sont toujours bonnes mais reportées à plus tard avec bien entendu toujours plein de bonnes raisons pour justifier le retard.

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 01:43
par Raphaël
Dave a écrit :qu'est-ce qui n'est pas programmable?
Le vrai hasard n'est pas programmable: on peut seulement le simuler.

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 01:47
par Raphaël
shisha a écrit :Un robot peut- il rêver ? ressentir ? imaginer ? imaginer quelque chose qui tend vers l'inconcevable ?
Étant donné qu'un robot (ou un ordinateur) exécute des instructions à la file, il ne pourrait pas être conscient de plus de 32 ou 64 bits à la fois, ce qui est ridiculement petit. Ça n'arriverait même pas à la cheville d'une bactérie comme niveau de conscience.

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 01:52
par MP57
l'esclavage
Est ce qu'un robot se rebellera au bout d'un certain temps d'exploitation?

Si un seuil n'est pas programmé dans sa "conscience - programme"?

Par exemple certaine photocopieuse se déclare "en panne" au bout d'un certains nombre de photocopies,car elle sont programmés ( "obsolescence programmé"),mais tous les composant de la machine sont pourtant fonctionnelle, c'est juste une décision du fabriquant de la photocopieuse.

l'envie est un chose qui devrait être dur a concilié avec l'IA.Il me semble.

Divertissement...

Le partage"test du billet jeté dans la foule " ou "évacuation d'un paquebot"

choix inattendue/ sexualité choix mâle/femelle a exécuté par un robot mâle.(si le robot choisie un mâle, c'est un bug?)

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 02:08
par Raphaël
yquemener a écrit :Ah oui ? Même proposition : trouvez moi une définition objective et testable de la conscience et je vous propose une machine qui passe ce test.
C'est justement là que se trouve le problème: il n'existe pas de définition satisfaisante de la conscience. C'est un peu comme le temps: on peut s'en servir et le mesurer mais on ne sait pas vraiment ce que c'est ni d'où ça vient et on ne saurait encore moins le recréer de façon artificielle.

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 03:31
par Dave
Salut yquemener.

Et si la conscience avait un rapport avec ce qui n’est pas programmable? Rien ne l’interdit! Gödel lui-même affirme la fausseté du matérialisme philosophique, bien que la démarche matérialisme puisse être la plus pragmatique, comme une asymptote (non fixé) à la vérité. Il y a un problème de logique à la base.

La conscience agit à deux niveaux à la fois, d’où sa très possible nature non explicite. Pour comprendre et résoudre un problème, il faut être à un niveau moins conditionné. Pour le problème de la conscience, elle se retrouve donc à la fois au niveau du problème à résoudre et de l’être qui tente de la résoudre, ce qui se rapproche drôlement d’une situation qui pourrait faire intervenir le théorème de l’incomplétude.

Aussi, par définition, la prise de conscience est un phénomène permettant un certain déconditionnement (et donc une déprogrammation). Il existerait donc un troisième état encore moins conditionné que les deux autres. Il n’y a pas de raison de penser que le déconditionnement atteindra forcément une limite. Il existerait donc une infinité d’états conditionnés et « moins » conditionnés (toujours d’une façon relative). C’est dans cet infini que pourrait résider la conscience.

Selon moi, la conscience comme telle n’est pas quelque chose que l’on peut étudier scientifiquement. Par contre, tout ce qui est délimité (selon une perception) serait associé à une forme de conscience/inconscience. C’est cette forme dynamique qui est programmable. Donc, la forme (comportementale) de conscience dite humaine, inséparable de son inconscience, est « en partie » programmable, puisque la conscience comme telle n’est pas quelque chose d’observable, de scientifique. La programmation serait essentiellement reliée à l’inconscience, la façon de délimiter quelque chose qui, de toute façon, est forcément relié à la conscience.

Ça me vient à l’idée de dire qu’il ne s’agit pas de programmer la conscience, mais plutôt l’inconscience, l’aspect strictement mécanique, logique, mathématique et observable. La conscience viendra par elle-même. Plus la programmation serait lourde (au même niveau d’ordre), moins la conscience se manifesterait dans cette programmation. Comme l’a mentionné Jean-François, il n’est pas faux de dire que ce robot contient une forme de conscience (ou de protoconscience), comme toute chose.

Pour moi, il y a clairement une différence entre la conscience (l’essence de l’existence) et une forme de conscience. On a encore tendance à tout ramener à la perception humaine (à soi) en croyant que la conscience est seulement la conscience en tant qu’attribut de la conscience humaine.

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 04:02
par Etienne Beauman
yquemener a écrit : Il faut une façon d'évaluer la moralité d'une situation.
Oui ça s'appelle la conscience morale !
Joli raisonnement circulaire.

En plus en pratique c'est tout bonnement inapplicable, un petit garçon qui frappe sa petite sœur, on le punit. Et c'est d'abord la peur d'une nouvelle punition qui l'empêchera de repasser tout de suite à l'action la culpabilité il l'éprouvera bien plus tard, ou pas. Une machine qui frappe un humain on la détruit sur le champ.
Comment étalonner la morale d'une machine qui n'a aucun droit à l'erreur ?
Une machine ne doit pas mal agir, on pourra pas lui laisser avoir sa propre idée du bien et du mal, le mal sera impossible pour elle, elle ne pourra donc connaitre ni remord, ni regret, ni désir de vengeance et que sais je encore.
Et même dans l'hypothèse d'une machine libre d'accomplir des horreurs, un humain ne blâmerait pas la machine (ce qui l'empêchera pas de la détruire) mais son créateur, une machine avec une morale humaine en ferait de même : maitre pourquoi m'avez vous laisser faire ça ? Elle se déclarait irresponsable à juste titre.
MP57 a écrit :Par exemple certaine photocopieuse se déclare "en panne" au bout d'un certains nombre de photocopies,car elle sont programmés ( "obsolescence programmé"),mais tous les composant de la machine sont pourtant fonctionnelle, c'est juste une décision du fabriquant de la photocopieuse.
C'est un mythe, c'est une sécurité pas une panne, je l'ai expliqué ici.

Re: C'était le futur...

Publié : 19 janv. 2012, 12:42
par yquemener
Ouais ! Plein de réponses !
Raphaël a écrit :C'est l'excuse classique de ceux qui font des prédictions qui ne se réalisent pas. La plupart sont incapables d'admettre leurs erreurs et continuent de prétendre que leurs prédictions sont toujours bonnes mais reportées à plus tard avec bien entendu toujours plein de bonnes raisons pour justifier le retard.
Je donnais simplement un exemple d'une prédiction incroyablement juste mais assez en retard. Les raisons qui font que l'on pense que la production va toujours s'automatiser sont toujours valables, n'ont pas été contredites. Les seuls contre-arguments sont de nature économiques et sont temporaires (la Chine produit pour moins cher que des robots). Penser que la production sera totalement automatisée dans l'avenir, ce n'est pas croire en une révolution incroyable, c'est juste croire en la poursuite de certaines tendances pour lesquelles on ne voit pas d'obstacles.
Raphaël a écrit :Le vrai hasard n'est pas programmable: on peut seulement le simuler.
C'est vrai, mais reste à savoir si le vrai hasard existe dans notre univers. Même la mécanique quantique n'exclut pas totalement la possibilité de variables cachées.
MP57 a écrit :l'esclavage Est ce qu'un robot se rebellera au bout d'un certain temps d'exploitation?
...
l'envie est un chose qui devrait être dur a concilié avec l'IA.Il me semble.
...
Le partage"test du billet jeté dans la foule " ou "évacuation d'un paquebot"
...
choix inattendue/ sexualité choix mâle/femelle a exécuté par un robot mâle.(si le robot choisie un mâle, c'est un bug?)
Tout ceci sont des caractéristiques non souhaitables pour un robot : on souhaite faire l'esclave parfait, obéissant, sans désir de rébellion, sans douleur. Il serait possible (et assez cruel je trouve) de faire un robot doté de toutes ces caractéristiques : rébellion : c'est quand l'objectif de liberté l'emporte sur des objectifs plus terre à terre tels que éviter la douleur. Envie : l'objectif d'obtenir des choses avec lesquelles on a une affinité à cause de son parcours personnel. Les deux tests dont vous parlez sont des application directes du conflit entre recherche du bien général et recherche du bien particulier.
Dave a écrit :Et si la conscience avait un rapport avec ce qui n’est pas programmable? Rien ne l’interdit!
En effet, mais rien ne le prouve et tout semble indiquer son contraire. Contrairement à ce que vous dites, la conscience est étudiée par les scientifiques, et ressemble de plus en plus à une illusion (on prend souvent des décisions plusieurs secondes avant d'en avoir conscience par exemple) assez localisée si je me souviens bien.
Etienne Beauman a écrit :Oui ça s'appelle la conscience morale !
Joli raisonnement circulaire.
En quoi ? Ça vous semble impossible d'énoncer la morale suivant un ensemble de règles ? "Ne fais pas souffrir les autres" résume 90% des règles morales, et c'est tout à fait programmable.
Etienne Beauman a écrit :En plus en pratique c'est tout bonnement inapplicable, un petit garçon qui frappe sa petite sœur, on le punit. Et c'est d'abord la peur d'une nouvelle punition qui l'empêchera de repasser tout de suite à l'action la culpabilité il l'éprouvera bien plus tard, ou pas. Une machine qui frappe un humain on la détruit sur le champ.
Comment étalonner la morale d'une machine qui n'a aucun droit à l'erreur ?
On a l'habitude aujourd'hui de tester l'intelligence des robots en simulation avant de laisser les machines outils estropier leurs utilisateurs ou détruire le véhicule qu'ils contrôlent. On simule également les interactions humaines dans certains cas.

Après, en faisant l'hypothèse que le sens moral du robot doit être acquis d'une façon humaine, on a encore changé de problème par rapport à l'énoncé initial qui était "programmer les comportements humains dans un robot" dorénavant vous souhaitez programmer une machine qui puisse apprendre comme un enfant et aboutir à un comportement humain. Plus difficile, a encore moins d'intérêt que réaliser directement un androïde adulte, mais toujours pas impossible. Ça demande d'imiter les structures sous-optimales des humains, leur croissance lente, leur environnement social, etc... Ça a vraiment très peu d'intérêt. Souvenez vous que nous sommes la créature sapiente la plus idiote que l'évolution ait su produire. Nous ne savons toujours pas créer une créature sapiente artificielle, mais dans la plupart des tâches humaines que l'on sait faire effectuer par une machine, cette dernière surperforme généralement l'humain.
Etienne Beauman a écrit :Une machine ne doit pas mal agir, on pourra pas lui laisser avoir sa propre idée du bien et du mal, le mal sera impossible pour elle, elle ne pourra donc connaitre ni remord, ni regret, ni désir de vengeance et que sais je encore.
On peut tout à fait concevoir une machine comme ça. C'est tout à fait inutile et ridicule, voire cruel, mais ce serait possible et sans intérêt.
Etienne Beauman a écrit :Et même dans l'hypothèse d'une machine libre d'accomplir des horreurs, un humain ne blâmerait pas la machine (ce qui l'empêchera pas de la détruire) mais son créateur, une machine avec une morale humaine en ferait de même : maitre pourquoi m'avez vous laisser faire ça ? Elle se déclarait irresponsable à juste titre.
Et dans ce scénario ? JE crée une machine capable d'apprendre, on me la vole, on la lache dans la nature, elle apprend à tuer. Qui est responsable ? Imaginons qu'en plus d'apprendre à tuer cette machine aura réussi à gagner de l'argent, ne croyez vous pas qu'on indemnisera les victimes avec l'argent de la machine ? Ne croyez vous pas qu'on la punira de mort ou de démembrement ? Bien sur, on ne lui reconnaîtra pas la responsabilité pénale, qui est assez arbitrairement décidée, mais cela en aura tous les atours.

Si vous trouvez ça trop long comme post, on peut aussi faire du redico...

Re: Un robot devant un miroir

Publié : 19 janv. 2012, 14:58
par Etienne Beauman
Salut Yquemener,
Ça vous semble impossible d'énoncer la morale suivant un ensemble de règles ?
Tout à fait impossible en effet, la morale c'est absolument pas un ensemble de règles.
La morale c'est subjectif. Un programme différent par individu. Bon courage pour essayer de dégager une pseudo moyenne objective.
"Ne fais pas souffrir les autres" résume 90% des règles morales
Bah non justement, la quasi totalité des humains fait souffrir un moment à un autre les autres de manière plus ou moins intentionnelle.
Après, en faisant l'hypothèse que le sens moral du robot doit être acquis d'une façon humaine, (..)vous souhaitez programmer une machine qui puisse apprendre comme un enfant et aboutir à un comportement humain.
Non on c'est mal compris, j'expliquais simplement et partiellement comment l'homme parvenait à se construire sa conscience morale, avec l'exemple de la culpabilité, ce qu'un robot à mon sens ne peut pas reproduire car on ne le laissera pas expérimenter et commettre des erreurs pour des raisons de sécurité évidente alors que les humains ne sont pas bridés et que celui qui adulte évite les ennuis plutôt qu'il ne les cherche n'a pas été programmé en ce sens, ce sont ces choix, l'éducation qu'il a reçu (parents culture école entourage religion,etc.) et ces réactions face aux aléas de la vie remis en perspective afin d'en acquérir de l'expérience qui ont conduit à ce comportement plutôt qu'un autre.
Un robot capable d'apprendre mais incapable de faire le mal mais surtout incapable de décider par lui-même que c'est mal tout en ne fermant jamais définitivement la possibilité de recourir quand même dans certain cas à ce type d'action, ne pourra pas développer le sens de la responsabilité, qui est fondamental.
. Souvenez vous que nous sommes la créature sapiente la plus idiote que l'évolution ait su produire. Nous ne savons toujours pas créer une créature sapiente artificielle, mais dans la plupart des tâches humaines que l'on sait faire effectuer par une machine, cette dernière surperforme généralement l'humain.

On sent ton amour pour l'IA que je respecte et comprends en grande partie (j'aurais adoré bossé dans cette branche) mais qui est un solide biais.
La créature sapiente la plus idiote est aussi la plus intelligente vu qu'il y en a qu'une !
Image
Ce que tu dis ensuite et aussi pertinent que de dire que l'homme se fait superformer par un briquet, un stylo à bille, un rasoir à main.
Qui est responsable ?

Toi, évidemment. Suggestion de lecture. ;)
Si vous trouvez ça trop long comme post, on peut aussi faire du redico...
Non merci, j'en suis revenu du redico. C'est ludique mais on s'y enlise assez vite.