Oui, solutions inférieures au niveau de la qualité et d'un prix excessif dans le cas du taxi. Il leur manque la sécurité et la disponibilité des voitures automatiques. Ceci dit, de nombreuses technologies sont superflues dés que l'on s'attribue des domestiques. JE suis d'accord que si j'avais une voiture avec un chauffeur, j'aurais assez peu besoin d'une voiture automatique.
Un robot devant un miroir
Re: Un robot devant un miroir
C'était le futur...
Ça me rappelle la façon qu'on imaginait le futur dans les années 60's. Plus besoin de travailler ou de faire le ménage; les robots feraient tout à notre place. On n'aurait plus qu'à se prélasser dans nos bolides volants, se rendre sur le plus belles plages du monde, visiter les plus belles villes, aller prendre un café à Paris et revenir au Québec la même journée si on le voulait, réserver nos vacances dans des stations lunaires ou martiennes et profiter de la vie et du beau temps sans se faire le moindre souci. J'avais tellement hâte de vieillir pour arriver à l'an 2000 et avoir ma propre voiture volante amphibie qui me permettrait d'explorer ce monde futuriste extraordinaire.kestaencordi a écrit :je veux volontier sacrifier le plaisir que j'ai a conduire considerant que en retour l'efficacite du reseau routier serait surement multiplier par 100. la fluidite du trafic gerer par un systeme central de gestion qui connais l'itineraire de chaques vehicules. eliminant ou presque les arrets et lumieres au intersection. en ville.
...
plus de panne d'essence et d'accrochage enorme source de trafic. les cotisation d'assurance , la surveillance policiere des routes inutiles. et surtout mini bar sous le lazy boy de chaques passager etc etc.
j'ai pas fume. je suis juste pas ne dans le bon siecle. quoique dans 40 ans...
http://jpdubs.hautetfort.com/archive/20 ... futur.html
Malheureusement, la réalité du quotidien m'a rattrapé. On en rendu en 2012 et je n'ai encore rien de tout ça. Je suis encore pris pour travailler, faire le ménage, me déplacer dans une voiture ou un bus tout à fait banal et essayer de profiter au mieux de mes petites vacances de 3 semaines par année avec ce que mon petit budget me permet. Mais je me dis que c'est quand même une chance qu'on puisse rêver; ça rend la vie plus belle et plus facile à accepter, surtout quand on est jeune.
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- kestaencordi
- Messages : 3858
- Inscription : 10 janv. 2012, 08:41
Re: Un robot devant un miroir
http://www.youtube.com/watch?feature=pl ... OMIBdM6N7Q
voila qqn ui repousse les limites de la technologie. je note que l'integration d'un mamifere dans le systeme. nous permet de le decrire comme un systeme bio-mecanique dote d'intelligence.
voila qqn ui repousse les limites de la technologie. je note que l'integration d'un mamifere dans le systeme. nous permet de le decrire comme un systeme bio-mecanique dote d'intelligence.
Victoriae mundis et mundis lacrima.
ça ne veut absolument rien dire, mais je trouve que c’est assez dans le ton.
ça ne veut absolument rien dire, mais je trouve que c’est assez dans le ton.
Re: Un robot devant un miroir
Son système n'est pas tout à fait au point... Il doit impérativement avoir fini de lire la page, ou dans le cas ou il a déjà fini de la lire, il doit attendre que le "mécanisme" se mette en branle, en réarmant son mécanisme, puis en prenant une autre gorgée de son liquide, et attendre encore tout le temps pour que le mécanisme fasse son travail! Lire le journal, dans son cas, c'est un job à temps plein!kestaencordi a écrit :http://www.youtube.com/watch?feature=pl ... OMIBdM6N7Q
voila qqn ui repousse les limites de la technologie. je note que l'integration d'un mamifere dans le systeme. nous permet de le decrire comme un systeme bio-mecanique dote d'intelligence.
Y a-t-il un robot qui ferait mieux que ça?
Re: C'était le futur...
@Raphael : j'ai dans ma bilbiothèque un recueil de SF que je conserve pour une unique nouvelle mais aussi pour son prologue. "Un logic nommé Joe", écrite dans les années 40 par un mathématicien. Il y décrit un monde dans lequel la plupart des gens possèdent un "logic" (le mot "ordinateur" n'existait pas) relié aux autres logic par un réseau ressemblant au réseau téléphonique, s'échangeant des informations et même des vidéos. Il imagine les problèmes survenant quand un de ces logic se met à répondre à toutes les questions que chacun se pose, depuis le diamètre de la lune à la meilleure façon d'empoisonner sa belle mère. Bref, une nouvelle prédisant l'arrivée des ordinateurs individuels, d'internet, de la wikipedia.
Ceci dit, le prologue est aussi intéressant : le recueil date des années 70. L'éditeur commente donc la nouvelle comme un objet intéressant mais ne peut s'empêcher un certain scepticisme. Il note que certaines personnes croient que l'ordinateur deviendra un ordinateur personnel dans la décennie suivante, et que donc cette nouvelle a encore une chance de se réaliser mais présente plus cette nouvelle comme une curiosité.
Ce n'est pas parce que ça fait 40 ans qu'on prédit l'automatisation totale du travail (en pratique ça fait bien plus de temps que ça) que cette prédiction ne reste pas crédible. Elle a été retardée pendant deux décennies car on a préféré transformer la Chine en l'usine du monde plutôt que de financer de la recherche en robotique, mais cette période touche à sa fin. La Chine devient trop cher, les quelques pays plus compétitifs ont vite été saturés ou ne disposent pas des infrastructures nécessaires. Des géants comme Foxconn voient dans la robotisation leur prochaine étape de réduction des coûts de production.
Et il est vrai qu'à l'échelle mondiale, on travaille moins. Ça n'est pas une baisse aussi énorme que la SF l'aurait voulu, mais c'est une baisse, c'est une tendance. Le modèle consumériste vit sa fin, de nombreux travailleurs préfèrent aujourd'hui obtenir du temps libre plutôt qu'une augmentation. Ils ne sont pas la majorité, certes pas, mais leur nombre augmente.
Je considère cette prédiction comme toujours valable, simplement retardée. D'après certains, un autre facteur est que la plupart de ces prédictions avaient été faites dans le cadre de la guerre froide où deux camps tentaient agressivement de défendre leur mode de vie, de l'améliorer et de le présenter sous le meilleur jour. La chute de l'URSS (que quasiment aucun auteur n'a osé prédire) a fait de l'amélioration du niveau de vie moyen un chantier moins urgent...
Ceci dit, le prologue est aussi intéressant : le recueil date des années 70. L'éditeur commente donc la nouvelle comme un objet intéressant mais ne peut s'empêcher un certain scepticisme. Il note que certaines personnes croient que l'ordinateur deviendra un ordinateur personnel dans la décennie suivante, et que donc cette nouvelle a encore une chance de se réaliser mais présente plus cette nouvelle comme une curiosité.
Ce n'est pas parce que ça fait 40 ans qu'on prédit l'automatisation totale du travail (en pratique ça fait bien plus de temps que ça) que cette prédiction ne reste pas crédible. Elle a été retardée pendant deux décennies car on a préféré transformer la Chine en l'usine du monde plutôt que de financer de la recherche en robotique, mais cette période touche à sa fin. La Chine devient trop cher, les quelques pays plus compétitifs ont vite été saturés ou ne disposent pas des infrastructures nécessaires. Des géants comme Foxconn voient dans la robotisation leur prochaine étape de réduction des coûts de production.
Et il est vrai qu'à l'échelle mondiale, on travaille moins. Ça n'est pas une baisse aussi énorme que la SF l'aurait voulu, mais c'est une baisse, c'est une tendance. Le modèle consumériste vit sa fin, de nombreux travailleurs préfèrent aujourd'hui obtenir du temps libre plutôt qu'une augmentation. Ils ne sont pas la majorité, certes pas, mais leur nombre augmente.
Je considère cette prédiction comme toujours valable, simplement retardée. D'après certains, un autre facteur est que la plupart de ces prédictions avaient été faites dans le cadre de la guerre froide où deux camps tentaient agressivement de défendre leur mode de vie, de l'améliorer et de le présenter sous le meilleur jour. La chute de l'URSS (que quasiment aucun auteur n'a osé prédire) a fait de l'amélioration du niveau de vie moyen un chantier moins urgent...
Re: Un robot devant un miroir
Salut yquemener. C'est très intéressant ce que vous dites.
Je me pose la question suivante.
Si la conscience est un « comportement (?) » programmable, qu'est-ce qui n'est pas programmable?
Je me pose la question suivante.
Si la conscience est un « comportement (?) » programmable, qu'est-ce qui n'est pas programmable?
Re: Un robot devant un miroir
Certains problèmes théoriques ne sont pas programmables (calculables). Un exemple :Dave a écrit :Si la conscience est un « comportement (?) » programmable, qu'est-ce qui n'est pas programmable?
http://fr.wikipedia.org/wiki/Probl%C3%A ... arr%C3%AAt
Si ta question est plutôt de chercher un comportement existant dans notre univers et non programmable, je n'en ai jamais vu un seul exemple. Il y a une position philosophique qui dit que notre univers est probablement une simulation informatique. Rien ne semble l'interdire.
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Un robot devant un miroir
Salut Yquemener,
Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complétement différents.
L'humain peut faire les deux, pas les machines.
Une machine n'aura jamais le vertige, ne sera jamais fan de claude François, ne tombera pas amoureux, ne fera jamais de lapsus (révélateur ou pas), etc. la liste est sans doute infinie.
La conscience n'est pas le fruit d'un programme, mais celui d'un conflit entre les différents instincts, pulsions, traumatisme, désirs, automatismes, aspirations, désordres hormonaux, peurs, angoisses, croyances, expériences, etc. et j'en oublie surement.
Quid des émotions, du goût, du doute ?je n'en ai jamais vu un seul exemple
Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complétement différents.
L'humain peut faire les deux, pas les machines.
Une machine n'aura jamais le vertige, ne sera jamais fan de claude François, ne tombera pas amoureux, ne fera jamais de lapsus (révélateur ou pas), etc. la liste est sans doute infinie.
La conscience n'est pas le fruit d'un programme, mais celui d'un conflit entre les différents instincts, pulsions, traumatisme, désirs, automatismes, aspirations, désordres hormonaux, peurs, angoisses, croyances, expériences, etc. et j'en oublie surement.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: Un robot devant un miroir
Proposez moi un test en double aveugle qui permette de faire la différence et je vous proposerai une machine qui passe ce test.Etienne Beauman a écrit :Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complètement différents.
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Un robot devant un miroir
Je comprends pas.yquemener a écrit :Proposez moi un test en double aveugle qui permette de faire la différence et je vous proposerai une machine qui passe ce test.Etienne Beauman a écrit :Je suis pas sûr qu'on ait avancé d'un pouce, éprouver une émotion ou la simuler sont deux comportements complètement différents.
Une femme qui a un orgasme ou une femme qui simule un orgasme, c'est pas du tout pareil. Pas de besoin de protocole pour en être convaincu, si ?
Une femme ne peut pas décider d'avoir un orgasme sur commande, c'est si ça vient pas qu'elle simule. (et alors elle improvise un truc plus ou moins convaincant)
Si un robot est programmé pour savoir faire quelque chose, il peut la faire sur commande (c'est l'idée même d'un programme).
Donc quelque soit le test que réussirai la machine il n'y aurait pas une action et son simulacre, mais deux actions différentes programmées toutes les deux, et répondant à deux contextes différents ou s'alternant au hasard selon la volonté du programmeur, pas de la machine.
Une machine ne peut pas simuler. Elle exécute.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: Un robot devant un miroir
Comment croyez vous que l'existence de l'orgasme féminin a été prouvé aux scientifiques sceptiques (mâles principalement) ? Comment pensez vous que l'on puisse dorénavant savoir que l'orgasme féminin peut avoir deux formes, clitoridien et vaginal ? Un fait intéressant également, la femme semble avoir plus de contrôle que l'homme sur son orgasme. Si les conditions sont réunies, elle peut décider ou non d'en avoir un de façon à peu près consciente. Ce n'est donc pas spontané, mais pas non plus simulé et on l'a prouvé. Comment pensez vous que l'on ait établi des connaissances aussi précises sans protocole expérimental ?Etienne Beauman a écrit :Une femme qui a un orgasme ou une femme qui simule un orgasme, c'est pas du tout pareil. Pas de besoin de protocole pour en être convaincu, si ?
Il suffirait donc de créer une machine refusant d'obéir à vos ordre pour passer votre test ?Etienne Beauman a écrit :Si un robot est programmé pour savoir faire quelque chose, il peut la faire sur commande (c'est l'idée même d'un programme).
Si vous êtes incapable d'établir un test objectif, vous devriez vous ouvrir à la possibilité que la chose que vous souhaitez démontrer n'existe peut être pas.Etienne Beauman a écrit :Donc quelque soit le test que réussirai la machine il n'y aurait pas une action et son simulacre, mais deux actions différentes programmées toutes les deux, et répondant à deux contextes différents ou s'alternant au hasard selon la volonté du programmeur, pas de la machine.
Une machine ne peut pas simuler. Elle exécute.
Que pensez vous du test du Turing ? Pensez vous qu'une machine n'arrivera jamais à le passer ou qu'il n'est pas valable ?
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Un robot devant un miroir
Je comprends toujours pas.yquemener a écrit :Comment croyez vous que l'existence de l'orgasme féminin a été prouvé aux scientifiques sceptiques (mâles principalement) ? Comment pensez vous que l'on puisse dorénavant savoir que l'orgasme féminin peut avoir deux formes, clitoridien et vaginal ? Un fait intéressant également, la femme semble avoir plus de contrôle que l'homme sur son orgasme. Si les conditions sont réunies, elle peut décider ou non d'en avoir un de façon à peu près consciente. Ce n'est donc pas spontané, mais pas non plus simulé et on l'a prouvé. Comment pensez vous que l'on ait établi des connaissances aussi précises sans protocole expérimental ?
Je n'ai pas dit qu'un orgasme était soit spontané soit simulé. J'ai dit qu'une femme qui ne parvient pas à l'orgasme peut feindre d'en avoir un.
Quel test ?Il suffirait donc de créer une machine refusant d'obéir à vos ordre pour passer votre test ?
J'ai justement dit que quelque soit le test on ne peut pas mettre en évidence qu'une machine simule, ça veut rien dire pour une machine simuler.
Soit elle sait faire quelque chose et elle le fait, soit elle ne sait pas la faire et elle ne la fait pas, mais jamais elle fera semblant de faire quelque chose. Elle fera au mieux quelque chose qui consiste à faire ce que font les humains quand ils font semblant de faire quelque chose.
Une machine entrain de simuler une action qu'elle saurait faire par ailleurs ne serait qu'entrain de faire une autre action (plus ou moins identique en fonction de la volonté des programmeurs) qui a été programmée pour faire croire qu'elle simule et réussisse le test.
Je vais prendre un exemple pour être mieux compris :
On arrive je sais pas comment à donner le sens de l'humour à un androïde.
Il rit à certaine blague mais pas à toutes, il a une sorte de goût, (on peut même imaginer que son goût puisse évoluer dans le temps).
dans certaine situation un humain peut faire semblant de rire, il se force alors qu'il ne trouve pas cela drôle. Un androïde ne se forcera pas, soit il rira aux blagues drôles soit il rira dans certain cas où c'est pas drôle uniquement si on l'a programmé pour cela, et il rira de la même façon que quand c'est drôle sauf si on lui programme une façon différente (dans le but de convaincre une assemblée qu'il est capable de simuler par exemple et qu'on peut observer des légères différences entre son rire naturel et son rire forcé, sauf que c’est un leurre les deux sont programmés), en aucun cas il n'essaiera de reproduire un rire naturel, tout en ressentant une petite gène parce c'est pas drôle.
Que c'est hors sujet.yquemener a écrit :Que pensez vous du test du Turing ? Pensez vous qu'une machine n'arrivera jamais à le passer ou qu'il n'est pas valable ?
Le test de Turing s'il est réussi prouve qu'une machine peut se faire passer avec succès pour un humain pas qu'elle est consciente.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: Un robot devant un miroir
J'hésite à répondre point par point ou à me focaliser sur ce qui me semble essentiel. Je propose de recentrer le débat, n'hésitez pas à me héler si vous considérez que j'esquive ainsi un argument important.
Je pensais que nous parlions de la possibilité de programmer des émotions. Je prétends que toutes les caractéristiques d'une émotion sont tout à fait programmables. Je ne comprends pas vos arguments. Qu'une machine "fasse semblant" ou non, si elle parvient à accomplir de façon fiable toutes les réactions émotionnelles souhaitées, on dira d'un point de vue informatique que la tâche a été correctement programmée.
Votre critique semble être que programmer une émotion, ce n'est pas la même chose que ressentir une émotion. C'est vrai, car "ressentir une émotion" implique une réaction à la réaction émotionnelle elle même. C'est une tâche différente, tout à fait programmable également. On pourrait généraliser cette tâche en disant qu'il s'agit de réagir (éventuellement de façon émotionnelle) à son propre état émotionnel. Des systèmes réagissant à leur état interne sont légion, le faire de façon émotionnelle n'a rien d'incalculable. Il s'agit d'un système à boucle fermée dont les comportement peuvent être très intéressants, chaotiques (au sens mathématique du terme) et difficiles à anticiper.
Je vous rétorquerai donc que l'on peut tout à fait programmer une machine pour que ses réactions soient conformes à ce que l'on attend d'un humain qui ressent des émotions. Une machine ne peut pas sortir des comportements, plus ou moins souples, de sa programmation, cela est vrai. Mais en est-il différemment de nous ? Nous obéissons à un programme comportemental, que l'on nomme notre "caractère". Sauf s'il s'agit de prouver que nous pouvons nous en affranchir (et que c'est dans notre caractère d'avoir un certain esprit de contradiction) nous le suivons.
Savez vous que les humains sont incapables de se comporter de façon aléatoire ? Un bon programme est capable de gagner dans 65% des cas contre un humain à "papier-caillou-ciseaux". Cette proportion devrait être de 50% si nous étions capables de nous affranchir de notre programmation. Un programme devine en partie le cheminement humain "ça fait longtemps que j'ai pas joué caillou" ou "rien que pour avoir l'air aléatoire je vais faire une séquence de trois ciseaux". Il existe des personnes capables de jouer réellement aléatoirement mais celles-ci, c'est très ironique, calculent consciemment le résultat d'un algorithme dans leur tête.
Ce n'est pas parce que nous n'avons pas conscience du programme qu'il n'existe pas.
Je pensais que nous parlions de la possibilité de programmer des émotions. Je prétends que toutes les caractéristiques d'une émotion sont tout à fait programmables. Je ne comprends pas vos arguments. Qu'une machine "fasse semblant" ou non, si elle parvient à accomplir de façon fiable toutes les réactions émotionnelles souhaitées, on dira d'un point de vue informatique que la tâche a été correctement programmée.
Votre critique semble être que programmer une émotion, ce n'est pas la même chose que ressentir une émotion. C'est vrai, car "ressentir une émotion" implique une réaction à la réaction émotionnelle elle même. C'est une tâche différente, tout à fait programmable également. On pourrait généraliser cette tâche en disant qu'il s'agit de réagir (éventuellement de façon émotionnelle) à son propre état émotionnel. Des systèmes réagissant à leur état interne sont légion, le faire de façon émotionnelle n'a rien d'incalculable. Il s'agit d'un système à boucle fermée dont les comportement peuvent être très intéressants, chaotiques (au sens mathématique du terme) et difficiles à anticiper.
Je vous rétorquerai donc que l'on peut tout à fait programmer une machine pour que ses réactions soient conformes à ce que l'on attend d'un humain qui ressent des émotions. Une machine ne peut pas sortir des comportements, plus ou moins souples, de sa programmation, cela est vrai. Mais en est-il différemment de nous ? Nous obéissons à un programme comportemental, que l'on nomme notre "caractère". Sauf s'il s'agit de prouver que nous pouvons nous en affranchir (et que c'est dans notre caractère d'avoir un certain esprit de contradiction) nous le suivons.
Savez vous que les humains sont incapables de se comporter de façon aléatoire ? Un bon programme est capable de gagner dans 65% des cas contre un humain à "papier-caillou-ciseaux". Cette proportion devrait être de 50% si nous étions capables de nous affranchir de notre programmation. Un programme devine en partie le cheminement humain "ça fait longtemps que j'ai pas joué caillou" ou "rien que pour avoir l'air aléatoire je vais faire une séquence de trois ciseaux". Il existe des personnes capables de jouer réellement aléatoirement mais celles-ci, c'est très ironique, calculent consciemment le résultat d'un algorithme dans leur tête.
Ce n'est pas parce que nous n'avons pas conscience du programme qu'il n'existe pas.
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Un robot devant un miroir
Mais c'est justement là le cœur du sujet, la majorité de nos comportements ne répondent à aucune tache programmée mais au contraire sont plutôt des errances du à un manque d'instruction.on dira d'un point de vue informatique que la tâche a été correctement programmée.
Quand on se brûle, l'idée c'est de retirer la main pour éviter que les tissus ne subissent trop de dégât, la douleur est utile et réponds à un programme tout con pas touche sinon bobo, sauf que l'information une fois comprise ne disparait pas, elle persiste ça fait toujours mal alors que j'ai retiré ma main du feu, j'ai beau avoir conscience des dégâts, avoir passer ma main sous l'eau mis de la pommade, j'ai toujours mal, mais cette douleur ne sert à rien au contraire elle me parasite.
Mais le corps envoie aussi de la dopamine, sans doute pour favoriser au départ la fuite ou l'agressivité face à une menace, et on a fait quoi ? le sadomasochisme !

On se fait mal volontairement !
Comment pourrais tu programmer un robot pour qu'il ne fasse pas certaines actions mais réussir à faire qu'il les fasse quand même ? C'est un échec qu'il faudrait tenter de programmer

Désolé de tourner autour du q (c'est mieux qu’autour du pot), mais c'est le parfait exemple de toutes une liste de comportement qui n'ont rien à faire des instructions de base, la nature a programmée (façon de parler) le plaisir sexuel pour être sûr que l'homme se reproduise, mais la conscience humaine a créé l’érotisme, l'exhibitionnisme, le fétichisme, et plein de pratique où la résultante en matière de fécondation tombe à zéro.
L'humain c'est ça une machine paradoxale qui fait tout et se contraire et qui essaye après coup de se justifier pourquoi elle a fait ça plutôt qu'autre chose.
En robotique on évitera le plus possible ce genre de bug, car on a aucune idée de où ça peut mener sinon à des plantages, les humains ont très peu de commande forte manger dormir se reproduire, le reste c'est que de l'impro conséquence des bugs et des limites des appareils sensitif évaluant l'extérieur et de l'adaptation au contrainte environnemental se perpétuant de génération en génération, la conscience n'est pas apparu du jour au lendemain.
Alors si tu arrives à ce qu'une machine reproduise un comportement similaire à celui d'un humain qui éprouve une émotion ne rend pas cette machine pour autant consciente et émotionnelle.
On peut pas détacher l'émotion de la conscience. C'est bien plus que "de réagir à son état interne".
Comment programmer la culpabilité, le regret, le remord, la fierté, la peur du futur, la confiance, l'impatience, la nervosité, la timidité, le manque, etc. ?
Une machine qui serait consciente éprouverait probablement des sentiments qu'on pourrait pas comprendre tout comme on comprends pas ce que ressens une vache regardant passer les trains, parce qu'on est pas câblé pareille.
C'est faux. Il faut toujours considérer l'homme dans son environnement, tu veux du hasard jette une pièce pile tu t'offres une bière, face tant pis.Savez vous que les humains sont incapables de se comporter de façon aléatoire ?
L'homme c'est parfaitement s'en remettre au hasard, c'est juste sa notion d'à quoi ressemble des événements aléatoires qui est biaisée.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: Un robot devant un miroir
Alors en effet, en robotique on cherche à éviter ce genre de comportements parce que lorsqu'on fait un robot on a souvent un but précis en tête, et on essaie de faire une machine efficace qui accomplisse ce but. Les humains n'ont pas de tels buts ou plutôt ont une multitude de buts contradictoires. Réaliser une machine sur ce principe est possible mais reste du domaine de la curiosité.Etienne Beauman a écrit :Comment pourrais tu programmer un robot pour qu'il ne fasse pas certaines actions mais réussir à faire qu'il les fasse quand même ? C'est un échec qu'il faudrait tenter de programmer![]()
Et on peut avoir de l'inattendu en programmation. Je me souviens avoir fait quelques essais d'IA. J'avais un algorithme que je voulais "créatif" dans sa façon d'explorer un labyrinthe et en effet il m'a proposé des solutions auxquelles je ne m'attendais pas : il me demandait si ce ne serait pas possible de modifier le labyrinthe lui même pour qu'il soit plus facile (pas bégueule il m'a demandé carrément de relier le départ à l'arrivée). Faire un truc qui tente de tricher est toujours possible.
C'est une bonne définition.Etienne Beauman a écrit :L'humain c'est ça une machine paradoxale qui fait tout et se contraire et qui essaye après coup de se justifier pourquoi elle a fait ça plutôt qu'autre chose.
Je ne suis pas d'accord avec ce "alors". Ce qui le précède ne justifie pas du tout ce qui le suis.Etienne Beauman a écrit :Alors si tu arrives à ce qu'une machine reproduise un comportement similaire à celui d'un humain qui éprouve une émotion ne rend pas cette machine pour autant consciente et émotionnelle.
Ah oui ? Même proposition : trouvez moi une définition objective et testable de la conscience et je vous propose une machine qui passe ce test.Etienne Beauman a écrit :On peut pas détacher l'émotion de la conscience. C'est bien plus que "de réagir à son état interne".
(Grande inspiration) Eh bien allons-y :Etienne Beauman a écrit :Comment programmer la culpabilité, le regret, le remord, la fierté, la peur du futur, la confiance, l'impatience, la nervosité, la timidité, le manque, etc. ?
Culpabilité : Il faut une façon d'évaluer la moralité d'une situation. La culpabilité est le feedback négatif que l'on injecte au système lorsqu'il a contribué à une situation immorale. On isole du mieux possible l'action précise qui est immorale et on concentre le poids négatif d'apprentissage dessus (j'aurais pas du mentir à cette question), si on ne trouve pas une action en particulier, on applique ce poids négatif à l'ensemble des actions (j'ai mal agi) voire si c'est trop flou à l'ensemble de la personnalité (je suis vraiment un connard).
Regret : À peu près le même mécanisme mais cette fois on ne juge plus la moralité de la situation mais le plaisir quelle apporte.
Remord : cf. Culpabilité.
Fierté : (il y a plusieurs sens à ce mot. Je décris là celui de "sens de l'honneur", plutôt que celui de vantardise) La fierté n'est rien d'autre que l'acceptation d'un ensemble de règles morales. C'est un but de plus du système que d'obéir à ces règles. Respecter sa parole, même lorsque rien ne l'y contrait et que c'est contraire à son intérêt est une de ces situations où on a des buts contradictoires. Ce genre de conflit est tranché de façon arbitraire par le caractère. On dira de quelqu'un qu'il est alors honorable ou égoïste et on en dirait de même pour un système. On voit également au passage qu'un système qui aurait pour but prioritaire d'être apprécié de la société humaine pourra faire le calcul de ne pas apparaître égoïste et prendra toutes les apparences de l'honorabilité, la simulant comme un humain le ferait. La différence entre une simulation de sens de l'honneur et un sens de l'honneur véritable peut s'établir de façon objective : mettez un système (informatique ou humain) dans une situation où il doit honorer une promesse contraire à son intérêt sans que personne ne puisse la vérifier et vous verrez si il simule ou non.
Peur du futur, impatience, Nervosité : On est là dans le domaine du stress, qui est un bug purement humain mais tout à fait reproductible. Une situation d'incertitude ayant potentiellement de mauvaises conséquences pour le système entraîne une situation de stress. De par notre évolution et notre corps, on réagit au stress en ayant des mouvements plus rapides, un corps plus alerte et des jugements plus rapides mais moins profonds. L'inaction est refusée. Ces comportements sont, pour un système totalement intellectuel, totalement contre-productifs mais on pourrait sans problème les reproduire.
Confiance : Modélisation d'une interaction humaine dans laquelle on estime que l'autre personne est capable d'ignorer dans une mesure plus ou moins grande son intérêt personnel pour préserver cette relation.
Timidité : Modélisation erronée d'une personne par le système qui l'incite à penser que cette personne réagira de façon négative à tout un ensemble d'actions.
Manque : Manque d'une substance ? Très facile : obtenir cette substance devient un objectif de plus en plus prioritaire au fur et à mesure que le temps passe.
Mais j'ai le sentiment que vous diriez qu'une machine qui se comporte d'une telle façon ne suit qu'un algorithme.C'est faux. Il faut toujours considérer l'homme dans son environnement, tu veux du hasard jette une pièce pile tu t'offres une bière, face tant pis.Savez vous que les humains sont incapables de se comporter de façon aléatoire ?
L'homme c'est parfaitement s'en remettre au hasard, c'est juste sa notion d'à quoi ressemble des événements aléatoires qui est biaisée.
Re: Un robot devant un miroir
Un robot peut- il rêver ? ressentir ? imaginer ? imaginer quelque chose qui tend vers l'inconcevable ? trouver quelque chose d'incroyable et l'en aprécier sincèrement ?
Un robo pourra avoir les mêmes comportements qu'un humain d'après ce que dit yquemener, mais cela sera juste une façade, il n'en ressentira rien pour autant. (il dira "j'ai mal" mais n'en souffrira pas pour autant comme nous on peut le ressentir, n'est-ce pas?).
Un robo pourra avoir les mêmes comportements qu'un humain d'après ce que dit yquemener, mais cela sera juste une façade, il n'en ressentira rien pour autant. (il dira "j'ai mal" mais n'en souffrira pas pour autant comme nous on peut le ressentir, n'est-ce pas?).
Re: C'était le futur...
Ceux qui réussissent à faire des prédictions à peu près correctes qui portent sur 40 ans ou plus dans le futur sont très rares. La très grande majorité des gens en sont complètement incapables. Je suis persuadé que si on avait questionné des gens en 1960 en leur demandant de nous décrire leur vision de l'an 2000, au moins 99% se seraient gourés en donnant des prévisions farfelues du genre voitures volantes, colonies de vacances sur Mars ou Vénus, médicaments qui guérissent toutes les maladies, société de loisirs où les machines font tout à notre place et où on peut baiser à longueur de journée et être heureux pour l'éternité parce qu'on aura découvert le secret de l'immortalité.yquemener a écrit :@Raphael : j'ai dans ma bilbiothèque un recueil de SF que je conserve pour une unique nouvelle mais aussi pour son prologue. "Un logic nommé Joe", écrite dans les années 40 par un mathématicien. Il y décrit un monde dans lequel la plupart des gens possèdent un "logic" (le mot "ordinateur" n'existait pas) relié aux autres logic par un réseau ressemblant au réseau téléphonique, s'échangeant des informations et même des vidéos.
C'est l'excuse classique de ceux qui font des prédictions qui ne se réalisent pas. La plupart sont incapables d'admettre leurs erreurs et continuent de prétendre que leurs prédictions sont toujours bonnes mais reportées à plus tard avec bien entendu toujours plein de bonnes raisons pour justifier le retard.Ce n'est pas parce que ça fait 40 ans qu'on prédit l'automatisation totale du travail (en pratique ça fait bien plus de temps que ça) que cette prédiction ne reste pas crédible. Elle a été retardée pendant deux décennies...
Re: Un robot devant un miroir
Le vrai hasard n'est pas programmable: on peut seulement le simuler.Dave a écrit :qu'est-ce qui n'est pas programmable?
Re: Un robot devant un miroir
Étant donné qu'un robot (ou un ordinateur) exécute des instructions à la file, il ne pourrait pas être conscient de plus de 32 ou 64 bits à la fois, ce qui est ridiculement petit. Ça n'arriverait même pas à la cheville d'une bactérie comme niveau de conscience.shisha a écrit :Un robot peut- il rêver ? ressentir ? imaginer ? imaginer quelque chose qui tend vers l'inconcevable ?
Re: Un robot devant un miroir
l'esclavage
Est ce qu'un robot se rebellera au bout d'un certain temps d'exploitation?
Si un seuil n'est pas programmé dans sa "conscience - programme"?
Par exemple certaine photocopieuse se déclare "en panne" au bout d'un certains nombre de photocopies,car elle sont programmés ( "obsolescence programmé"),mais tous les composant de la machine sont pourtant fonctionnelle, c'est juste une décision du fabriquant de la photocopieuse.
l'envie est un chose qui devrait être dur a concilié avec l'IA.Il me semble.
Divertissement...
Le partage"test du billet jeté dans la foule " ou "évacuation d'un paquebot"
choix inattendue/ sexualité choix mâle/femelle a exécuté par un robot mâle.(si le robot choisie un mâle, c'est un bug?)
Est ce qu'un robot se rebellera au bout d'un certain temps d'exploitation?
Si un seuil n'est pas programmé dans sa "conscience - programme"?
Par exemple certaine photocopieuse se déclare "en panne" au bout d'un certains nombre de photocopies,car elle sont programmés ( "obsolescence programmé"),mais tous les composant de la machine sont pourtant fonctionnelle, c'est juste une décision du fabriquant de la photocopieuse.
l'envie est un chose qui devrait être dur a concilié avec l'IA.Il me semble.
Divertissement...
Le partage"test du billet jeté dans la foule " ou "évacuation d'un paquebot"
choix inattendue/ sexualité choix mâle/femelle a exécuté par un robot mâle.(si le robot choisie un mâle, c'est un bug?)
Dernière modification par MP57 le 19 janv. 2012, 02:20, modifié 1 fois.
"plus c’est grotesque, plus c’est délirant, plus c’est absurde et plus il y a de benêts pour y croire."
Re: Un robot devant un miroir
C'est justement là que se trouve le problème: il n'existe pas de définition satisfaisante de la conscience. C'est un peu comme le temps: on peut s'en servir et le mesurer mais on ne sait pas vraiment ce que c'est ni d'où ça vient et on ne saurait encore moins le recréer de façon artificielle.yquemener a écrit :Ah oui ? Même proposition : trouvez moi une définition objective et testable de la conscience et je vous propose une machine qui passe ce test.
Re: Un robot devant un miroir
Salut yquemener.
Et si la conscience avait un rapport avec ce qui n’est pas programmable? Rien ne l’interdit! Gödel lui-même affirme la fausseté du matérialisme philosophique, bien que la démarche matérialisme puisse être la plus pragmatique, comme une asymptote (non fixé) à la vérité. Il y a un problème de logique à la base.
La conscience agit à deux niveaux à la fois, d’où sa très possible nature non explicite. Pour comprendre et résoudre un problème, il faut être à un niveau moins conditionné. Pour le problème de la conscience, elle se retrouve donc à la fois au niveau du problème à résoudre et de l’être qui tente de la résoudre, ce qui se rapproche drôlement d’une situation qui pourrait faire intervenir le théorème de l’incomplétude.
Aussi, par définition, la prise de conscience est un phénomène permettant un certain déconditionnement (et donc une déprogrammation). Il existerait donc un troisième état encore moins conditionné que les deux autres. Il n’y a pas de raison de penser que le déconditionnement atteindra forcément une limite. Il existerait donc une infinité d’états conditionnés et « moins » conditionnés (toujours d’une façon relative). C’est dans cet infini que pourrait résider la conscience.
Selon moi, la conscience comme telle n’est pas quelque chose que l’on peut étudier scientifiquement. Par contre, tout ce qui est délimité (selon une perception) serait associé à une forme de conscience/inconscience. C’est cette forme dynamique qui est programmable. Donc, la forme (comportementale) de conscience dite humaine, inséparable de son inconscience, est « en partie » programmable, puisque la conscience comme telle n’est pas quelque chose d’observable, de scientifique. La programmation serait essentiellement reliée à l’inconscience, la façon de délimiter quelque chose qui, de toute façon, est forcément relié à la conscience.
Ça me vient à l’idée de dire qu’il ne s’agit pas de programmer la conscience, mais plutôt l’inconscience, l’aspect strictement mécanique, logique, mathématique et observable. La conscience viendra par elle-même. Plus la programmation serait lourde (au même niveau d’ordre), moins la conscience se manifesterait dans cette programmation. Comme l’a mentionné Jean-François, il n’est pas faux de dire que ce robot contient une forme de conscience (ou de protoconscience), comme toute chose.
Pour moi, il y a clairement une différence entre la conscience (l’essence de l’existence) et une forme de conscience. On a encore tendance à tout ramener à la perception humaine (à soi) en croyant que la conscience est seulement la conscience en tant qu’attribut de la conscience humaine.
Et si la conscience avait un rapport avec ce qui n’est pas programmable? Rien ne l’interdit! Gödel lui-même affirme la fausseté du matérialisme philosophique, bien que la démarche matérialisme puisse être la plus pragmatique, comme une asymptote (non fixé) à la vérité. Il y a un problème de logique à la base.
La conscience agit à deux niveaux à la fois, d’où sa très possible nature non explicite. Pour comprendre et résoudre un problème, il faut être à un niveau moins conditionné. Pour le problème de la conscience, elle se retrouve donc à la fois au niveau du problème à résoudre et de l’être qui tente de la résoudre, ce qui se rapproche drôlement d’une situation qui pourrait faire intervenir le théorème de l’incomplétude.
Aussi, par définition, la prise de conscience est un phénomène permettant un certain déconditionnement (et donc une déprogrammation). Il existerait donc un troisième état encore moins conditionné que les deux autres. Il n’y a pas de raison de penser que le déconditionnement atteindra forcément une limite. Il existerait donc une infinité d’états conditionnés et « moins » conditionnés (toujours d’une façon relative). C’est dans cet infini que pourrait résider la conscience.
Selon moi, la conscience comme telle n’est pas quelque chose que l’on peut étudier scientifiquement. Par contre, tout ce qui est délimité (selon une perception) serait associé à une forme de conscience/inconscience. C’est cette forme dynamique qui est programmable. Donc, la forme (comportementale) de conscience dite humaine, inséparable de son inconscience, est « en partie » programmable, puisque la conscience comme telle n’est pas quelque chose d’observable, de scientifique. La programmation serait essentiellement reliée à l’inconscience, la façon de délimiter quelque chose qui, de toute façon, est forcément relié à la conscience.
Ça me vient à l’idée de dire qu’il ne s’agit pas de programmer la conscience, mais plutôt l’inconscience, l’aspect strictement mécanique, logique, mathématique et observable. La conscience viendra par elle-même. Plus la programmation serait lourde (au même niveau d’ordre), moins la conscience se manifesterait dans cette programmation. Comme l’a mentionné Jean-François, il n’est pas faux de dire que ce robot contient une forme de conscience (ou de protoconscience), comme toute chose.
Pour moi, il y a clairement une différence entre la conscience (l’essence de l’existence) et une forme de conscience. On a encore tendance à tout ramener à la perception humaine (à soi) en croyant que la conscience est seulement la conscience en tant qu’attribut de la conscience humaine.
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Un robot devant un miroir
Oui ça s'appelle la conscience morale !yquemener a écrit : Il faut une façon d'évaluer la moralité d'une situation.
Joli raisonnement circulaire.
En plus en pratique c'est tout bonnement inapplicable, un petit garçon qui frappe sa petite sœur, on le punit. Et c'est d'abord la peur d'une nouvelle punition qui l'empêchera de repasser tout de suite à l'action la culpabilité il l'éprouvera bien plus tard, ou pas. Une machine qui frappe un humain on la détruit sur le champ.
Comment étalonner la morale d'une machine qui n'a aucun droit à l'erreur ?
Une machine ne doit pas mal agir, on pourra pas lui laisser avoir sa propre idée du bien et du mal, le mal sera impossible pour elle, elle ne pourra donc connaitre ni remord, ni regret, ni désir de vengeance et que sais je encore.
Et même dans l'hypothèse d'une machine libre d'accomplir des horreurs, un humain ne blâmerait pas la machine (ce qui l'empêchera pas de la détruire) mais son créateur, une machine avec une morale humaine en ferait de même : maitre pourquoi m'avez vous laisser faire ça ? Elle se déclarait irresponsable à juste titre.
C'est un mythe, c'est une sécurité pas une panne, je l'ai expliqué ici.MP57 a écrit :Par exemple certaine photocopieuse se déclare "en panne" au bout d'un certains nombre de photocopies,car elle sont programmés ( "obsolescence programmé"),mais tous les composant de la machine sont pourtant fonctionnelle, c'est juste une décision du fabriquant de la photocopieuse.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Re: C'était le futur...
Ouais ! Plein de réponses !
Après, en faisant l'hypothèse que le sens moral du robot doit être acquis d'une façon humaine, on a encore changé de problème par rapport à l'énoncé initial qui était "programmer les comportements humains dans un robot" dorénavant vous souhaitez programmer une machine qui puisse apprendre comme un enfant et aboutir à un comportement humain. Plus difficile, a encore moins d'intérêt que réaliser directement un androïde adulte, mais toujours pas impossible. Ça demande d'imiter les structures sous-optimales des humains, leur croissance lente, leur environnement social, etc... Ça a vraiment très peu d'intérêt. Souvenez vous que nous sommes la créature sapiente la plus idiote que l'évolution ait su produire. Nous ne savons toujours pas créer une créature sapiente artificielle, mais dans la plupart des tâches humaines que l'on sait faire effectuer par une machine, cette dernière surperforme généralement l'humain.
Si vous trouvez ça trop long comme post, on peut aussi faire du redico...
Je donnais simplement un exemple d'une prédiction incroyablement juste mais assez en retard. Les raisons qui font que l'on pense que la production va toujours s'automatiser sont toujours valables, n'ont pas été contredites. Les seuls contre-arguments sont de nature économiques et sont temporaires (la Chine produit pour moins cher que des robots). Penser que la production sera totalement automatisée dans l'avenir, ce n'est pas croire en une révolution incroyable, c'est juste croire en la poursuite de certaines tendances pour lesquelles on ne voit pas d'obstacles.Raphaël a écrit :C'est l'excuse classique de ceux qui font des prédictions qui ne se réalisent pas. La plupart sont incapables d'admettre leurs erreurs et continuent de prétendre que leurs prédictions sont toujours bonnes mais reportées à plus tard avec bien entendu toujours plein de bonnes raisons pour justifier le retard.
C'est vrai, mais reste à savoir si le vrai hasard existe dans notre univers. Même la mécanique quantique n'exclut pas totalement la possibilité de variables cachées.Raphaël a écrit :Le vrai hasard n'est pas programmable: on peut seulement le simuler.
Tout ceci sont des caractéristiques non souhaitables pour un robot : on souhaite faire l'esclave parfait, obéissant, sans désir de rébellion, sans douleur. Il serait possible (et assez cruel je trouve) de faire un robot doté de toutes ces caractéristiques : rébellion : c'est quand l'objectif de liberté l'emporte sur des objectifs plus terre à terre tels que éviter la douleur. Envie : l'objectif d'obtenir des choses avec lesquelles on a une affinité à cause de son parcours personnel. Les deux tests dont vous parlez sont des application directes du conflit entre recherche du bien général et recherche du bien particulier.MP57 a écrit :l'esclavage Est ce qu'un robot se rebellera au bout d'un certain temps d'exploitation?
...
l'envie est un chose qui devrait être dur a concilié avec l'IA.Il me semble.
...
Le partage"test du billet jeté dans la foule " ou "évacuation d'un paquebot"
...
choix inattendue/ sexualité choix mâle/femelle a exécuté par un robot mâle.(si le robot choisie un mâle, c'est un bug?)
En effet, mais rien ne le prouve et tout semble indiquer son contraire. Contrairement à ce que vous dites, la conscience est étudiée par les scientifiques, et ressemble de plus en plus à une illusion (on prend souvent des décisions plusieurs secondes avant d'en avoir conscience par exemple) assez localisée si je me souviens bien.Dave a écrit :Et si la conscience avait un rapport avec ce qui n’est pas programmable? Rien ne l’interdit!
En quoi ? Ça vous semble impossible d'énoncer la morale suivant un ensemble de règles ? "Ne fais pas souffrir les autres" résume 90% des règles morales, et c'est tout à fait programmable.Etienne Beauman a écrit :Oui ça s'appelle la conscience morale !
Joli raisonnement circulaire.
On a l'habitude aujourd'hui de tester l'intelligence des robots en simulation avant de laisser les machines outils estropier leurs utilisateurs ou détruire le véhicule qu'ils contrôlent. On simule également les interactions humaines dans certains cas.Etienne Beauman a écrit :En plus en pratique c'est tout bonnement inapplicable, un petit garçon qui frappe sa petite sœur, on le punit. Et c'est d'abord la peur d'une nouvelle punition qui l'empêchera de repasser tout de suite à l'action la culpabilité il l'éprouvera bien plus tard, ou pas. Une machine qui frappe un humain on la détruit sur le champ.
Comment étalonner la morale d'une machine qui n'a aucun droit à l'erreur ?
Après, en faisant l'hypothèse que le sens moral du robot doit être acquis d'une façon humaine, on a encore changé de problème par rapport à l'énoncé initial qui était "programmer les comportements humains dans un robot" dorénavant vous souhaitez programmer une machine qui puisse apprendre comme un enfant et aboutir à un comportement humain. Plus difficile, a encore moins d'intérêt que réaliser directement un androïde adulte, mais toujours pas impossible. Ça demande d'imiter les structures sous-optimales des humains, leur croissance lente, leur environnement social, etc... Ça a vraiment très peu d'intérêt. Souvenez vous que nous sommes la créature sapiente la plus idiote que l'évolution ait su produire. Nous ne savons toujours pas créer une créature sapiente artificielle, mais dans la plupart des tâches humaines que l'on sait faire effectuer par une machine, cette dernière surperforme généralement l'humain.
On peut tout à fait concevoir une machine comme ça. C'est tout à fait inutile et ridicule, voire cruel, mais ce serait possible et sans intérêt.Etienne Beauman a écrit :Une machine ne doit pas mal agir, on pourra pas lui laisser avoir sa propre idée du bien et du mal, le mal sera impossible pour elle, elle ne pourra donc connaitre ni remord, ni regret, ni désir de vengeance et que sais je encore.
Et dans ce scénario ? JE crée une machine capable d'apprendre, on me la vole, on la lache dans la nature, elle apprend à tuer. Qui est responsable ? Imaginons qu'en plus d'apprendre à tuer cette machine aura réussi à gagner de l'argent, ne croyez vous pas qu'on indemnisera les victimes avec l'argent de la machine ? Ne croyez vous pas qu'on la punira de mort ou de démembrement ? Bien sur, on ne lui reconnaîtra pas la responsabilité pénale, qui est assez arbitrairement décidée, mais cela en aura tous les atours.Etienne Beauman a écrit :Et même dans l'hypothèse d'une machine libre d'accomplir des horreurs, un humain ne blâmerait pas la machine (ce qui l'empêchera pas de la détruire) mais son créateur, une machine avec une morale humaine en ferait de même : maitre pourquoi m'avez vous laisser faire ça ? Elle se déclarait irresponsable à juste titre.
Si vous trouvez ça trop long comme post, on peut aussi faire du redico...
- Etienne Beauman
- Messages : 6881
- Inscription : 20 févr. 2011, 18:59
Re: Un robot devant un miroir
Salut Yquemener,
La morale c'est subjectif. Un programme différent par individu. Bon courage pour essayer de dégager une pseudo moyenne objective.
Un robot capable d'apprendre mais incapable de faire le mal mais surtout incapable de décider par lui-même que c'est mal tout en ne fermant jamais définitivement la possibilité de recourir quand même dans certain cas à ce type d'action, ne pourra pas développer le sens de la responsabilité, qui est fondamental.
On sent ton amour pour l'IA que je respecte et comprends en grande partie (j'aurais adoré bossé dans cette branche) mais qui est un solide biais.
La créature sapiente la plus idiote est aussi la plus intelligente vu qu'il y en a qu'une !

Ce que tu dis ensuite et aussi pertinent que de dire que l'homme se fait superformer par un briquet, un stylo à bille, un rasoir à main.
Toi, évidemment. Suggestion de lecture.
Tout à fait impossible en effet, la morale c'est absolument pas un ensemble de règles.Ça vous semble impossible d'énoncer la morale suivant un ensemble de règles ?
La morale c'est subjectif. Un programme différent par individu. Bon courage pour essayer de dégager une pseudo moyenne objective.
Bah non justement, la quasi totalité des humains fait souffrir un moment à un autre les autres de manière plus ou moins intentionnelle."Ne fais pas souffrir les autres" résume 90% des règles morales
Non on c'est mal compris, j'expliquais simplement et partiellement comment l'homme parvenait à se construire sa conscience morale, avec l'exemple de la culpabilité, ce qu'un robot à mon sens ne peut pas reproduire car on ne le laissera pas expérimenter et commettre des erreurs pour des raisons de sécurité évidente alors que les humains ne sont pas bridés et que celui qui adulte évite les ennuis plutôt qu'il ne les cherche n'a pas été programmé en ce sens, ce sont ces choix, l'éducation qu'il a reçu (parents culture école entourage religion,etc.) et ces réactions face aux aléas de la vie remis en perspective afin d'en acquérir de l'expérience qui ont conduit à ce comportement plutôt qu'un autre.Après, en faisant l'hypothèse que le sens moral du robot doit être acquis d'une façon humaine, (..)vous souhaitez programmer une machine qui puisse apprendre comme un enfant et aboutir à un comportement humain.
Un robot capable d'apprendre mais incapable de faire le mal mais surtout incapable de décider par lui-même que c'est mal tout en ne fermant jamais définitivement la possibilité de recourir quand même dans certain cas à ce type d'action, ne pourra pas développer le sens de la responsabilité, qui est fondamental.
. Souvenez vous que nous sommes la créature sapiente la plus idiote que l'évolution ait su produire. Nous ne savons toujours pas créer une créature sapiente artificielle, mais dans la plupart des tâches humaines que l'on sait faire effectuer par une machine, cette dernière surperforme généralement l'humain.
On sent ton amour pour l'IA que je respecte et comprends en grande partie (j'aurais adoré bossé dans cette branche) mais qui est un solide biais.
La créature sapiente la plus idiote est aussi la plus intelligente vu qu'il y en a qu'une !

Ce que tu dis ensuite et aussi pertinent que de dire que l'homme se fait superformer par un briquet, un stylo à bille, un rasoir à main.
Qui est responsable ?
Toi, évidemment. Suggestion de lecture.

Non merci, j'en suis revenu du redico. C'est ludique mais on s'y enlise assez vite.Si vous trouvez ça trop long comme post, on peut aussi faire du redico...
Dernière modification par Etienne Beauman le 19 janv. 2012, 14:59, modifié 1 fois.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?
Is this a discussion?
Qui est en ligne ?
Utilisateurs parcourant ce forum : Aucun utilisateur inscrit