Gérard Berry : « L’ordinateur est complètement con »

Tout sur les sciences, que ce soit la chimie, la biologie, l'astronomie etc.
yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#76

Message par yquemener » 06 mars 2015, 03:12

Etienne Beauman a écrit :Je mens à mon meilleur pote ou je fais exploser son couple ?
Quelle serait la bonne réponse? Ton problème est posé de façon incomplète.

On pourrait imaginer que ta métrique est de maximiser les bonheurs individuels. En fonction de ta modélisation des différents protagonistes, tu peux évaluer la douleur que causeraient un comportement ou l'autre. Peut-être as-tu évalué que ce serait une bonne chose pour ton pote de quitter cette fille ou alors tu sais qu'ils sont un couple relativement libre et se foutent des encarts des uns ou des autres.

Peut-être considères-tu la vérité comme objectif principal, souffrance ou non, et du coup tu vas partager toutes les infos que tu as.

Ce que tu poses n'est pas un problème à résoudre: c'est un dilemme moral. Les humains ne sont pas non plus très doués pour les résoudre.

Avatar de l’utilisateur
switch
Messages : 1883
Inscription : 18 nov. 2010, 09:46

Re: Gérard Berry : « L’ordinateur est complètement con »

#77

Message par switch » 06 mars 2015, 08:38

Etienne Beauman a écrit : Tu dois avoir une vie palpitante ! :P:
tu as pas idée¨
Etienne Beauman a écrit : Je viens de croiser par hasard la femme de mon meilleur ami dans un magasin elle était accompagné de son ex, je les ai vu s'embrasser.
Je mens à mon meilleur pote ou je fais exploser son couple ?
J'aurais du préciser qu'il n'y a pas de problème qu'une IA pourrait résoudre aussi bien qu'un humain. Dans ton cas c'est un problème morale, et je pense que chacun a une réponse différente.
« La Science est une méthode pour décider si ce que nous choisissons de croire se base ou non sur les lois de la Nature ».

Avatar de l’utilisateur
Etienne Beauman
Messages : 6881
Inscription : 20 févr. 2011, 18:59

Re: Gérard Berry : « L’ordinateur est complètement con »

#78

Message par Etienne Beauman » 06 mars 2015, 13:14

yquemener a écrit :Ce que tu poses n'est pas un problème à résoudre: c'est un dilemme moral.
Ah bon ? En quoi c'est pas un problème à résoudre?
Je vais prendre une décision quand même la prochaine fois que je verrais mon ami. Même si personne ne m'a programmé la bonne réponse.
Ta machine elle fait quoi ?
Rappel de tes dires :
Pouvez vous me prouver que vous n'obéissez pas à un programme ? Réfléchissez aux comportements qui sont pour vous antinomiques avec la notion de programmation et listez les, je vous expliquerai comment les programmer.
Alors comment tu programmes, si tu connais pas la réponse ?
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#79

Message par yquemener » 06 mars 2015, 14:34

Etienne Beauman a écrit :Ah bon ? En quoi c'est pas un problème à résoudre?
Quand on parle de résoudre un problème, on parle généralement de trouver une solution démontrablement correcte à un énoncé. Les dilemmes moraux n'ont pas de "bonnes" solutions. Un problème pourrait plutôt être de trouver une justification à son choix acceptable pour un interlocuteur donné.
Etienne Beauman a écrit :Je vais prendre une décision quand même la prochaine fois que je verrais mon ami. Même si personne ne m'a programmé la bonne réponse.
Et tu la prendras comment? À pile ou face?
Etienne Beauman a écrit :Ta machine elle fait quoi ?
La chose correcte. Simplement comme ton énoncé est incomplet je ne peux pas t'expliquer comment trouver la réponse que tu attends. C'est un peu comme si tu prétends qu'un ordinateur ne sait pas additionner car il est incapable d'ajouter 3 à l’âge du capitaine. Fournis un énoncé complet et tu auras ta solution. Avec ton énoncé tel qu'il est formulé, ma machine fera exactement comme moi: rien car elle ne connait ni la situation ni ce qu'on attend d'elle.

Mais si tu préfère, je peux t'expliquer comment une machine peut déduire qu'il faut prévenir ton ami et comment elle peut déduire qu'il faut lui cacher cette information. Les deux dépendent des valeurs (arbitraires) inscrites dans le modèle de priorités morales du programme.
Rappel de tes dires :
Pouvez vous me prouver que vous n'obéissez pas à un programme ? Réfléchissez aux comportements qui sont pour vous antinomiques avec la notion de programmation et listez les, je vous expliquerai comment les programmer.
Alors comment tu programmes, si tu connais pas la réponse ?
Ben oui, si je ne sais pas quel comportement je dois programmer, je ne peux pas le programmer.

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#80

Message par Raphaël » 06 mars 2015, 16:07

yquemener a écrit :Donne une exemple pratique alors. C'est un peu mon boulot de les modéliser :-)
C'est bien le problème avec les IA: il faut une nouvelle programmation à chaque qu'un nouveau problème se pose. Je pourrais donner un exemple mais j'y reviendrai plus tard, je n'ai pas le temps aujourd'hui. Contrairement aux robots je dois gagner ma vie. :mrgreen:
Je parle de conscience sans l'avoir définie mais j'ai supposé dans cette discussion que le sens généralement utilisé était "cette petite étincelle au fond de mon esprit qui me dit de survivre et que je suis quelque chose de très spécial".
C'est une définition poétique: c'est joli mais ça ne nous apprend rien de plus, surtout lorsqu'on retrouve les mots "je, me ou moi" ça devient une définition qui se définit par elle-même.

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#81

Message par Raphaël » 06 mars 2015, 16:18

switch a écrit :Je ne vois pas quels sont les problèmes de la vie de tous les jours qui seraient insolvables par une IA.
Les problèmes où les paramètres sont trop difficiles à déterminer pour pouvoir faire des calculs exacts.
On modélise déjà énormément de mécanismes de base de notre cerveau et il semble qu'on arrive/arrivera bientôt à modéliser un cerveau de mammifère (d'après le Human Brain project).
On n'arrive même pas à reproduire un cerveau de moustique. Pour les mammifères il va falloir attendre encore très très longtemps ...
Des IA qui reconnait les visage, l'écriture, la parole, les odeurs, qui bat un humain aux échecs ou au poker, ce n'est certes pas encore une conscience, mais il faut avouer qu'elle fait mieux que certain humain non ?
Ce n'est pas difficile de faire mieux que certains humains: une simple calculette à $3 a une capacité de calcul au moins un million de fois supérieure à la mienne.

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#82

Message par Raphaël » 06 mars 2015, 16:26

yquemener a écrit :
Etienne Beauman a écrit :Alors comment tu programmes, si tu connais pas la réponse ?
Ben oui, si je ne sais pas quel comportement je dois programmer, je ne peux pas le programmer.
Pauvre IA, en plus d'être obligée de se faire programmer pour chaque nouveau problème, si le programmeur ne sait pas quel comportement programmer on n'est pas sorti du bois. :mrgreen:

Avatar de l’utilisateur
Etienne Beauman
Messages : 6881
Inscription : 20 févr. 2011, 18:59

Re: Gérard Berry : « L’ordinateur est complètement con »

#83

Message par Etienne Beauman » 06 mars 2015, 16:30

yquemener a écrit :Quand on parle de résoudre un problème, on parle généralement de trouver une solution démontrablement correcte à un énoncé. Les dilemmes moraux n'ont pas de "bonnes" solutions. Un problème pourrait plutôt être de trouver une justification à son choix acceptable pour un interlocuteur donné..
:?
Tu mettais sur le même plan l'homme et la machine :
"Un ordinateur ne fera jamais une chose que son programme ne prévoit pas" Et vous ?
Pouvez vous me prouver que vous n'obéissez pas à un programme ? Réfléchissez aux comportements qui sont pour vous antinomiques avec la notion de programmation et listez les, je vous expliquerai comment les programmer.
Je te montre des exemples concrets, se libérer d'une dépendance, démissionner de son boulot, choisir entre être franc avec son ami ou lui faire du mal.
Tu me réponds ouais non ça ça compte pas.
Bref on est d'accord sur :
la machine saura bientôt faire comme l'homme sauf pour tous les trucs où elle saura pas.
Tu parles d'une avancée. :lol:
yquemener a écrit :Et tu la prendras comment
On a déjà eu la discussion. Sans conscience morale point de conscience pour les machines comparable à la conscience humaine. Je prendrais ma décision, avec ma conscience à moi et mon intelligence à moi pour anticiper les différents scénari possibles, et ce sera ma décision, j'en serais responsable et ne pourrais à contrario d'un robot en blâmer le programmateur.
Les deux dépendent des valeurs (arbitraires) inscrites dans le modèle de priorités morales du programme.
Ma morale à moi elle est évolutive, pas fixée dans le marbre. ;)
La chose correcte.
Où se cache l'intelligence si la chose à faire consiste à exécuter pas à pas un programme ? C'est purement mécanique.
Il n'y a pas d'intelligence s'il n'y a pas prise de décision.
Au royaume des cyclopes, les borgnes sont aveugles.
Is this a discussion?

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#84

Message par Raphaël » 06 mars 2015, 16:47

Etienne Beauman a écrit :Je vais prendre une décision quand même la prochaine fois que je verrais mon ami. Même si personne ne m'a programmé la bonne réponse.
yquemener a écrit :Et tu la prendras comment? À pile ou face?
Pour prendre une décision il faut d'abord imaginer différents scénarios avec les implications possibles. On peut ensuite choisir celui qui semble le plus approprié. Si on ne trouve rien qui puisse faire pencher la balance dans un sens plutôt que dans un autre on peut toujours utiliser la solution de dernier recours: le pile ou face.

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#85

Message par f.didier » 06 mars 2015, 17:07

Un ordinateur ou robot ne prend pas de choix ou de décisions. Il compare un événement a sa base de données pour sortir la solution qui est celle qui a le plus de chance d'etre la bonne.
Par exemple : il existe de nos jours des télévisions qui peuvent savoir ce que vous aimez regarder. Si vous regardez tous les samedis Patrick Sébastien, la tv a ca en mémoire, et le samedi, elle basculera automatiquement sur France 2. Mais en fait, elle a pas fais de choix, c'est juste que la probabilité que vous regardiez la 2 le samedi est la plus forte.
C'est un peu ce qui se passe dans le film "I-robot", le héros en veut aux robots car lors d'un accident, le robot a choisit de le sauver lui plutôt qu'une enfant. Et quand une programmatrice lui demande pourquoi lui a été sauvé, la réponse est claire : car l'homme avait un % de survit de 60% et la fillette de 40% , donc, il le sauve a lui. Et comme le robot a une programmation de sauver celui qui a le plus de chance de survit, il le "choisit" lui.
Aucun choix, juste une comparaison de deux données et l'action de la plus importante.

Dans le cas de ton ami, le robot comparera ses données et si pour lui "vérité > mensonge", il dira la vérité. Mais ca dépendra de sa banque de données. Un robot qui vit avec un humain qui lui dit que la verité est plus importante que tout, il lui en parlera. Un autre qui vit avec un menteur et si il lui a dit a plusieurs reprises qu'un mensonge c'est pas grave, vaut mieux laisser la vie comme elle est, il lui mentira.
Mais c'est jamais un choix, toujours une comparaison entre ses données et les événements qui arrivent.
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#86

Message par Raphaël » 06 mars 2015, 17:20

f.didier a écrit :Un ordinateur ou robot ne prend pas de choix ou de décisions. Il compare un événement a sa base de données pour sortir la solution qui est celle qui a le plus de chance d'etre la bonne.
Et c'est justement ce qu'on appelle "faire un choix" ou "prendre une décision"...

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#87

Message par f.didier » 06 mars 2015, 19:17

Oui, tu as raison, Raphaël, je me suis mal exprimé :a2:
En fait, ce que je voulais démontrer, c'est que l'humain prends plutôt ses décisions sur le ressentit, sur ses émotions ou son intuitions. Un robot est purement mathématique.
Prends par exemple, un enfant qui a une leucémie et un adulte en bonne santé. Donne le choix a un humain et un robot : un des deux doit mourir maintenant, lequel vas tu sauver ?
La majorité des humains vont dire sans hésiter l'enfant. Le robot te dira le contraire, car l'adulte a plus de % de vivre longtemps par rapport a l'enfant malade, ce % étant plus élevé, l'adulte doit vivre.
L'humain a réagit par ses émotions, alors que le robot a appliqué une logique implacable.
Pro technologie
Pro verichip
Pro robotique

Quebec-Patrie
Messages : 82
Inscription : 25 oct. 2014, 16:43

Re: Gérard Berry : « L’ordinateur est complètement con »

#88

Message par Quebec-Patrie » 06 mars 2015, 19:19

Faux en fait, le robot choisirait celui qui a les meilleurs chances de survie, la leucémie peut être en phase de rémission et réapparaitre, un tien vaut mieux que 2 tu l'auras, il choisirait l'adulte en bonne santé.

Quebec-Patrie
Messages : 82
Inscription : 25 oct. 2014, 16:43

Re: Gérard Berry : « L’ordinateur est complètement con »

#89

Message par Quebec-Patrie » 06 mars 2015, 19:21

J'avais mal lu ton post, tu as raison dans ce que tu as écrit. Désolé de la méprise.

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#90

Message par Raphaël » 07 mars 2015, 01:19

switch a écrit :J'aurais du préciser qu'il n'y a pas de problème qu'une IA pourrait résoudre aussi bien qu'un humain.
Oui il y en a. Par exemple au tic-tac-toe: une IA pourrait jouer aussi bien qu'un humain.
Dans ton cas c'est un problème morale, et je pense que chacun a une réponse différente.
Eh oui, c'est comme ça dans la vraie vie: contrairement à ce qu'un robot pourrait penser, il peut exister plusieurs solutions à un même problème.

Avatar de l’utilisateur
Raphaël
Messages : 8533
Inscription : 21 mai 2004, 03:42

Re: Gérard Berry : « L’ordinateur est complètement con »

#91

Message par Raphaël » 07 mars 2015, 01:23

f.didier a écrit :Prends par exemple, un enfant qui a une leucémie et un adulte en bonne santé. Donne le choix a un humain et un robot : un des deux doit mourir maintenant, lequel vas tu sauver ?
Ta question est mal formulée. Tu parles de faire mourir et de sauver en même temps. Si on choisi de faire mourir l'adulte, est-ce que l'enfant va être sauvé de sa leucémie ?

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#92

Message par f.didier » 07 mars 2015, 02:32

Raphaël a écrit : Ta question est mal formulée. Tu parles de faire mourir et de sauver en même temps. Si on choisi de faire mourir l'adulte, est-ce que l'enfant va être sauvé de sa leucémie ?
Non, non, l'enfant va mourir dans quelques semaines/mois de sa leucémie et l'adulte est en parfaite santé et a 40 ballets. Mais au moment de cette question, chacun d'eux a un flingue sur la tempe, et choisi lequel va se prendre une balle dans la minute qui va suivre.
Un humain, dans 95% des cas sauvera l'enfant.

Si tu veux savoir ma réponse, je choisi que l'adulte vive. Pour moi, la vie d'un enfant n'a pas plus d'importance de celle d'un adulte ou celle d'une femme que d'un homme, ou celle d'un blanc que d'un noir.
Pro technologie
Pro verichip
Pro robotique

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#93

Message par yquemener » 07 mars 2015, 06:09

Raphaël: Le but de la conversation courante est de montrer qu'il n'existe pas de comportement humain non programmable. Donc je propose des programmes simples qui permettent d'accomplir les tâches données. On ne parle en effet pas d'une IA généraliste. Une IA généraliste devra être un générateur de tels programmes.

Etienne Beauman a écrit :Je te montre des exemples concrets, se libérer d'une dépendance, démissionner de son boulot, choisir entre être franc avec son ami ou lui faire du mal.
Tu me réponds ouais non ça ça compte pas.
Bah je trouve que ça ne compte pas, parce que en effet, pour une machine c'est trop facile. Les dépendances et les habitudes sont des défaut strictement humains. On peut trivialement les ajouter à la machine, pour rendre plus difficile (et donc a priori plus "réaliste") l'effort qu'il faut pour en sortir, mais perso je ne vois pas en quoi le fait de succomber à des dépendances et à des habitudes est une preuve d'intelligence.

Et puisque tu sembles avoir du mal à comprendre en quoi les dilemmes moraux différent des problèmes liés à l'intelligence, je vais répondre moi-même aux questions que tu éludes pour te montrer comment une machine pourrait prendre une décision dans l'exemple que tu donnes.

Il y a plusieurs théories morales, et il semble assez probable que plusieurs coexistent dans la société voire au sein des individus. Un fonctionnement (qui semble prédominant chez les enfants) est de déterminer les actions qui améliorent l'opinion que les autres ont de soi, avec un poids plus important pour l'opinion des personnes proches. Doit-on révéler cette information à l'ami ? Une personne qui révèle un manquement moral à une autre est considérée comme un rapporteur. Une personne qui la cache comme un complice. Ce sont deux mauvaises possibilités il faut choisir celle qui aura le coût en réputation le plus faible. Et là, tout dépend de ce que le système "croit" être la réaction qu'auront les autres. S'il pense qu'un rapporteur sera plus apprécié qu'un complice, il choisira ça.

Mais on peut imaginer un système moins cynique, plus humaniste, dont le but est de diminuer la souffrance des autres et non de se soucier de son propre statut. La révélation d'une tromperie fait souffrir, autant le trahi que le traître. D'un autre côté la révélation tardive d'une tromperie fait souffrir davantage. Il y a cependant une probabilité pour que ce ne soit pas une tromperie de longue durée mais une incartade ponctuelle qui ne mènera pas à une rupture. Ce que nous faisons, nous humains, dans ce mode de pensées, c'est que nous jonglons, très maladroitement, avec les probas. Par exemple: "Ok, une chance sur deux que ça donne une rupture plus tard, mais il est vraiment bien amoureux et jaloux, si je lui apprend ça maintenant il sera dévasté, sa douleur sera pas vraiment plus énorme s'il l'apprend plus tard, du coup attendons". Un programme pourrait être bien plus confiant dans ses calculs et dans ses incertitudes, mais on peut décider de l'handicaper quand même si vous trouvez que ça le rend trop inhumain.

Ou alors on peut imaginer un programme qui ait la tête dans un gros bordel et qui, comme beaucoup d'humain, agit sans trop avoir pourquoi. "femme qui trompe = grosse pute, je veux lui faire du mal. Elle est avec mon pote, qui est un type bien. Si j’interromps la relation, elle sera triste. Et si je l'accuse publiquement, en plus elle aura honte. Ok, on fait ça."

Voila 3 raisonnements possibles et différents qu'un programme peut faire. Si tu souhaites des détails sur le déroulement de l'un ou de l'autre, je peux détailler.
Etienne Beauman a écrit :Ma morale à moi elle est évolutive, pas fixée dans le marbre. ;)
Tout comme peuvent l'être les priorités du programme. Par contre, peux-tu prouver que le mécanisme qui fait évoluer ta morale n'est pas, lui, fixé dans le marbre?

Dave
Messages : 393
Inscription : 15 sept. 2011, 04:30

Re: Gérard Berry : « L’ordinateur est complètement con »

#94

Message par Dave » 07 mars 2015, 08:11

f.didier a écrit :Et comme le robot a une programmation de sauver celui qui a le plus de chance de survit, il le "choisit" lui.
Cependant, si l'espérance de vie restante de l'adulte est de 40 ans et que l'espérance de vie restante de la fillette est de 70 ans, le robot ne peut-il pas voir que sa programmation est en contradiction avec une autre partie de sa programmation? En effet, 40 % de 70 ans, c'est plus grand que 60 % de 40 ans.

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#95

Message par f.didier » 07 mars 2015, 11:50

Presque d'accord Dave, mais cette histoire est tiré d'une nouvelle d'Asimov dont on a fait un film : "i-robot". Dans ce roman, le héros a un accident de la route, un camion percute deux voitures qui sont projetées dans un lac. Un robot a vu la scène, et plonge pour sauver les passagers des voitures. Il se rend compte que avec la vitesse a laquelle coule les voitures, il n'aura le temps que d'en sauver qu'un.
Et là, il fait les calculs entre la distance, les blessures des passagers, et pleins d'autres choses. Et fini par calculer que l'homme a 60% de survie contre 40% pour la fillette. Et il sauve l'adulte. Ce qui provoque la colère de l'homme qui dit : "il aurait du sauver l'enfant, tous les humains le savent, on sauve d'abords les enfants."
Pro technologie
Pro verichip
Pro robotique

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#96

Message par yquemener » 07 mars 2015, 12:32

Plus on me parle de ce film, plus je me dis qu'à un moment il faudra que je le voie mais moins ça me donne envie de le faire.

Ben oui, c'est un dilemme moral. On prend tous des décisions dans ces cas là et il n'y a pas de bonnes ou de mauvaises réponses. On peut justifier un choix ou un autre. Dans certaines cultures on considère plus important de préserver les vieillards (qui ont plus d'expérience et sont plus rares) que les enfants.

Mais vous auriez tort de penser que parce qu'un robot dans un film donné agit comme ça, que c'est le seul comportement possible pour un robot. Les lois de la robotique sont une pure invention d'Asimov. On pourrait tout à fait imaginer un robot ayant une hiérarchie morale évaluant la vie d'un enfant d'une façon bien plus élevée que la vie d'un adulte.

Avatar de l’utilisateur
f.didier
Messages : 635
Inscription : 27 oct. 2014, 17:29

Re: Gérard Berry : « L’ordinateur est complètement con »

#97

Message par f.didier » 07 mars 2015, 13:04

yquemener a écrit :Plus on me parle de ce film, plus je me dis qu'à un moment il faudra que je le voie mais moins ça me donne envie de le faire.
Le film est sympa, l'histoire est assez simple, les personnages sont caricaturaux a l’extrême avec certains qui ont des réactions difficilement compréhensible. Par exemple, a un moment, des robots sortent de la chaine de montage, et le heros tire une balle dans la tête d'un robot. Et a coté, la programmatrice réagit comme si il venait de tuer un humain devant elle. La première fois que je l'ai vu, je me suis dit : "ho, on se calme, il a tiré une balle dans un grille pain", a la rigueur, qu'elle gueule car un robot ca coute cher, que il vient de détruire un bien de la société, oki, mais là, on a l'impression qu'il est rentré dans une maternité pour tuer un bébé. Si encore il appartenait deja a une personne, qu'elle s'y etait attachée, mais là, c'est vraiment le robot tout neuf, encore dans sa salle de stockage qui attend d'etre emballé.
C'est a peu pret la même connerie qui m'a pas fait accrocher a "Matrix". Dans la série Animatrix, un robot tue un humain car ce dernier lui donne un ordre, il veut pas obéir et le tue. Le robot est jugé coupable et détruit, normal. Mais là, décision : on détruit tous les robots.
Pardon ? Non, tous les ans, des gens meurent tué par des chiens, des abeilles, ou autres, et les humains ne décident pas de tuer tous les chiens, car un a provoqué la mort d'un humain.
Mais vous auriez tort de penser que parce qu'un robot dans un film donné agit comme ça, que c'est le seul comportement possible pour un robot. Les lois de la robotique sont une pure invention d'Asimov. On pourrait tout à fait imaginer un robot ayant une hiérarchie morale évaluant la vie d'un enfant d'une façon bien plus élevée que la vie d'un adulte.
C'est clairement expliqué que le robot a agit par pure mathématique.
Pro technologie
Pro verichip
Pro robotique

Avatar de l’utilisateur
Nicolas78
Messages : 11460
Inscription : 04 janv. 2013, 15:32

Re: Gérard Berry : « L’ordinateur est complètement con »

#98

Message par Nicolas78 » 07 mars 2015, 16:57

Je mens à mon meilleur pote ou je fais exploser son couple ?
Si tu sais que sa copine ne l'aime pas ou ne veut pas rester avec lui, pourquoi pas ?

Si en revanche elle l'aime ou veut continuer avec lui, il faut rien dire amha.

Après tout l'humain à tendance à croire qu'en couple on ne peut aimer qu'une personne, et n'accepte pas que ça soit pas le cas.
Alors que c'est parfaitement possible.

Bref, elle peux aimer son ex et ton pote, ou au moins vouloir rester avec lui.
Ça la regarde elle avant tout.
Et si c'est le cas, le dire à ton pote est un risque de faire exploser le couple pour une raison de possessivité.

En revanche, si ton pote fait péter le couple juste parce qu'elle aime possiblement et sincèrement 2 hommes voudrait dire que ton pote aime plus avoir une femme que la femme en question. Non ?

En revanche aussi, le dire si elle ne veut pas vraiment être avec ton pote ou ne l'aime pas vraiment, ça ne sera pas une grosse perte pour ton pote (il souffrira possiblement, mais il perd quoi au fond ? Une dépendance sans envie de rester ensembles ?).

Tout ceci sont des calculs plutôt simple non ?
Pour la notion de valeurs, ça ce complique.
Ce genre de valeurs morale n'est pas partagés par tout le monde.

D'ailleurs, je suis comme toi, mes valeurs évolues aussi, elle ne sont pas fixes.

yquemener y répond :
Tout comme peuvent l'être les priorités du programme. Par contre, peux-tu prouver que le mécanisme qui fait évoluer ta morale n'est pas, lui, fixé dans le marbre?

C'est une très bonne question.
Mais rien ne dit l'inverse non plus.

Sinon j'ai une question : une IA qui n'a aucune morale, juste de la logique, serait t'elle à même de faire un calcul qui produirai le moins de souffrance possible ou serait le plus "juste" possible pour les individus ?
La morale n'est t'elle pas une partie intégrante de l'intelligence et de la vie en société, ne forme t'elle pas elle aussi l'intelligence en prenant conscience de ses mécanismes ?

Ensuite, la dépendance demande une vie en société.
Une IA non dépendante pourrait t'elle développer une conscience d'elle et des autres et dépasser ainsi le simple statu du grille pain non-émotif d'on l’empathie en vers cette IA serait pas utile qu'en vers une chaussure ? *

A partir du moment ou une IA développe une conscience, je pense qu'elle devrait être considérer comme "vivante", avoir les même droits que nous.
Que ça soit biologique, mecanique, ou les deux, la carrosserie n'est pas le problème, sinon on tombe dans une forme d'anthropomorphisme morale.


*Si demain ma chaussure m'assure être émotive et consciente, et qu'elle ne veut pas mourir sous mes pieds car elle le désir, je prendrait soin d'elle (enfin du moins, je la mettrais plus) :mrgreen:

Ps pour la partie couple : Etienne, tout ceci est une réflexion, je ne veut pas me mêler de ce qui ne me regarde pas.
C'est juste que j'utilise ça comme une réflexion mêlant logique et morale en même temps, les deux cotés sembles intriqués et pas forcement incompatible.

Dave
Messages : 393
Inscription : 15 sept. 2011, 04:30

Re: Gérard Berry : « L’ordinateur est complètement con »

#99

Message par Dave » 07 mars 2015, 23:03

Salut Yquemener!



Tu sembles être assez convaincu du bien-fondé de tes raisonnements et de tes arguments. J'aimerais bien l'être autant et entrevoir une réelle solution à la compréhension raisonnablement complète de la conscience et de l'intelligence, mais je n'y arrive tout simplement pas. J'ai plutôt l'impression, du fait de son caractère constamment limité, de sa condition, que l'humain n'a pas les capacités de pouvoir comprendre définitivement la conscience et l'intelligence qui changent constamment.

Cependant, toute recherche scientifique en lien avec l'étude du cerveau et des capacités cognitives doit évidemment être encouragée pour elle-même, sans besoin d'un stimulus tel la récompense d'avoir trouvé la solution définitive au problème de la conscience, par exemple. BeetleJuice (à sa manière) l'a très bien exprimé.
BeetleJuice a écrit :Est-ce que sans l'objectif d'un alunissage ont aurait si vite progressé dans le domaine des fusées permettant d'emporter du matériel, dans le domaine des sondes, dans le domaine de l'informatique embarqué?
Il suffirait d'imaginer un défi comme élément déclencheur. Ensuite, réussir le défi comme tel n'est pas si important. C'est l'état d'esprit de celui qui cherche vraiment et honnêtement une solution qui importe (et les moyens qu'on lui donne, évidemment). Il existe, heureusement, des gens de rigueur qui aiment simplement construire des choses, imaginer des solutions pour le plaisir même de la découverte. C'est justement ce qui manque à l'humanité. Son plaisir est encore beaucoup trop égocentrique et orienté. À mon avis, ces chercheurs n'ont pas besoin d'être constamment poussés dans le dos par un gouvernement avide d'être en avance technologiquement, par exemple. La compétition n'est pas forcément bonne. La coopération (internationale, par exemple) est souvent avantageuse à long terme.
BeetleJuice a écrit :Ce n’est sans doute pas totalement vérifiable, mais comme le dit justement l'homme interviewé, il a vu des chercheurs faire des découvertes intéressantes au moment où ils s'éloignent de la recherche sur l'IA. Est-ce qu'ils auraient fait ses découvertes s'ils n'avaient pas d'abord buté dans le mur de l'IA pour en tirer quelque chose?
C'est principalement sa sensibilité, son questionnement soutenu et ses qualités d'esprit qui lui permettent de faire des découvertes majeures, le domaine étant plutôt secondaire.

Yquemener a écrit :Il y a quelques années, j'avais un mug sur lequel j'avais dessiné un mug et écrit "Je suis un mug". Selon certaines définitions j'ai donc créé quelque chose de conscient.
Intéressant (même si je n'y crois pas)! Indirectement, je trouve que ça pose le problème des limites (frontières spatio-temporelles) de la conscience, de la possibilité d'une conscience collective ou transmissible. Comme si projeter l'expression de notre conscience incitait à faire grandir, élargir la conscience, comme si elle n'était pas seulement « dans » nos cerveaux.
C'est sûr que prendre pour axiome une chose dont l'existence n'est pas avérée et dont la définition est vague te garantit de générer tout un système de croyances bien mystérieux!
Ça dépend ce que tu entends par « existence ». La conscience, le fait de ressentir, on ne peut pas dire que ça n'existe pas d'une manière fondamentale. Par contre, une chose qui me semble utile est d'établir des corrélations entre les états physiques et mentaux. La conscience devient alors immédiatement confondue avec sa façon d'être consciente. C'est déjà beaucoup plus scientifique.
Et moi je crois que c'est à cause du désir insatiable d'une explication dualiste qui donne un espoir d'une vie après la mort.
J'espère que tu as tort sur ce point, car ce serait assez désolant de voir une élite intellectuelle succomber à un tel désir qui n'a plus aucun rapport avec la recherche. Pourrait-on dire que la mort (en un sens) n'existe simplement pas? Que ce n'est qu'un changement très brusque? Enfin, c'est un autre sujet...
Il existe des programmes permettant d'évoluer des comportements, de faire émerger des choses non prévues au départ.
Je suis en accord avec la possibilité de simuler toujours mieux et plus longtemps un comportement intelligent que l'on considère comme étant en partie conscient. Mais, l'entité artificielle ressentira-t-elle vraiment du plaisir, de la douleur, des émotions? C'est aussi ça la conscience. Simuler n'est pas comprendre. L'émergence de choses non prévues n'est-elle pas, en un sens, un aveu d'une compréhension plutôt parcellaire? Je me demande aussi ce qui, a priori, empêcherait théoriquement que le niveau quantique joue un (petit) rôle dans notre façon d'être conscient?
À mon sens les humains ont également une programmation immuable dont ils ne peuvent sortir, mais elle est à un niveau très bas, invisible à notre conscience.
Oui! À mon avis, on pourrait simplement parler de condition humaine (ou de la définition d'un humain) ou même des règles (de la physique, de la biologie) qui feraient émerger cette condition. Cependant, si « tout change », ce qu'est un être humain changera aussi. Donc, si ton affirmation n'est pas tautologique, je ne suis pas certain d'être en accord avec le principe qu'elle laisse entendre.
Il suffit de montrer quelles sont les causes de la conscience pour réfuter mon affirmation.
L'emploi du verbe « suffire » me fait un peu sourire, car je vois tout de même là le défi le plus difficile à surmonter. Serais-tu d'accord pour dire qu'il est possible de simuler une forme matérielle évolutive qui « ressemble fortement » à une conscience intelligente, mais qui, en réalité, serait une quasi complète inconscience « intelligente (selon notre impression seulement) »? Si l'on décide qu'une procédure purement mécanique est l'expression d'une intelligence seulement parce qu'elle en a toutes les apparences, d'accord. Mais, on ne peut pas en conclure pour autant que cette procédure « ressente » sa seule propre existence intelligente, qu'elle soit dotée de conscience.
D'une façon générale, quand dans une discussion sur l'existence de X, tu prends comme axiome l'existence de X, tu es dans un raisonnement circulaire.
Mais si « X » signifie l'existence? Si l'univers est tout ce qui existe en tant que tout unifié, alors il est tout « ce qui est ». L'univers a une existence, l'univers existe. Mais, puisque l'univers est tout ce qui existe, alors l'existence de l'univers est « dans » l'univers. Le temps et les lois sont « dans » l'univers, ce qui est plutôt contraire à notre façon habituelle et pratique de le penser. Autrement dit, l'univers se rattache à lui-même, il est relié à lui-même. Cette fonction identité totale si j'ose dire, c'est simplement cela, la conscience fondamentale, en tant qu'axiome (à mon avis). Autrement dit, l'univers en tant que tout, en tant qu'unité infinie, existe du fait qu'il a (en puissance) une connaissance immédiate (intemporelle) de lui-même.

De façon intuitive, l'existence existe du fait qu'elle peut savoir immédiatement (absolument) qu'elle existe. Cette unique et double existence paradoxale exprime la nécessité de la conscience axiomatique (en soi) qui n'est évidemment pas ici l'expression d'une conscience façonnée ou particulière. Pour exprimer cette façon complètement philosophique (mais pas inutile!) de penser la conscience, j'ai imaginé une expérience de pensée. Celle-ci existe sûrement déjà dans certains livres, mais, bon, j'ai l'habitude d'enfoncer des portes ouvertes. Peu importe, je reviens à l'exemple que je te propose maintenant.

Imaginons un univers éternel (gouverné par certaines lois) comme étant un tout unifié et forcément sans lien (philosophique ou physique) avec d'autres univers hypothétiques. Cet univers serait tel qu'il ne pourrait aucunement engendrer quelconque conscience ou forme de conscience (c'est-à-dire de sensibilité). Peut-on dire que cet univers pourrait exister ou aurait pu réellement exister? Il est clair qu'on ne pourrait pas l'observer, puisque, si c'était le cas, nous en ferions partie, ce qui est impossible pour cet univers, par définition. Si l'on accepte l'égalité de Leibniz, cet univers n'est pas différent du néant qui, lui, est l'antithèse de l'existence. On pourrait donc raisonnablement penser qu'un univers sans conscience n'existerait pas.

J'exprime cette simple expérience de pensée, car je te propose d'envisager la possibilité que le fait de ressentir ne puisse pas être qu'une illusion, qu'un épiphénomène ou une chose se réduisant complètement à des règles de programmations ou de règles physicochimiques immuables et, à priori, sans conscience.

La machine peut-elle vraiment ressentir qu'elle existe si aucune conscience n'est essentielle pour son existence? Pourrait-on alors plutôt assimiler la machine à la projection et l'expression d'une forme de conscience humaine liée à ses solutions logiques actuelles (comme l'a exprimé Étienne)? L'intelligence (et les concepts) et le bonheur contiennent leur part irréductible et non négligeable de subjectivité, laquelle est intrinsèque à la conscience (particulière).

Les problèmes (humains) étant surtout une question de bonheur, comme l'explique Raphaël, on tourne en rond. Bien que le rond s'élargisse, il reste limité par rapport aux potentialités infinies de situations nouvelles. La machine devra donc comprendre comment elle peut entrevoir ce qui lui manque pour espérer comprendre ce qu'elle ne comprend pas.

Aussi, pour expliquer ou comprendre comment fonctionne l'intelligence, on le fait en utilisant notre intelligence. Ainsi, il faudra comprendre comment l'on comprend. De la même façon, il faudra comprendre comment l'on comprend comment l'on comprend. Ainsi de suite, indéfiniment, modifiant chaque fois notre structure matérielle et notre état physique. Cette autoréférence (infinie) est le problème fondamental qui semble rendre non résoluble le problème de la conscience (les qualia). En effet, l'autoréférence fait apparaitre le théorème de l'incomplétude (vu la complexité inévitable du programme) qui, lui, est lié à ce qui ne se programme pas. Pour s'ajuster à une nouvelle situation, le programme devra agir sur lui-même. Et là, il risque vraiment de tourner en boucle indéfiniment.

Mais, en réalité, si le programme ne ressent aucune peur (ou souffrance) réelle, on ne peut pas dire qu'il a un problème. Ce que l'humain peut percevoir est moins vaste que ce qui l'affecte. Il ne peut pas directement percevoir une pleine conscience. Il ne saura donc jamais si la machine construite est réellement consciente (sensible ou intelligente) ou non. Par contre, j'admets que la machine construite peut être dotée d'une forme de conscience intelligente.


Mais, encore une fois, les termes « reproduire » et « comprendre » ne sont pas forcément synonymes. Enfin, ce n'est que mon opinion.

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: Gérard Berry : « L’ordinateur est complètement con »

#100

Message par yquemener » 08 mars 2015, 00:44

f.didier a écrit :C'est clairement expliqué que le robot a agit par pure mathématique.
Et c'est faux. Ce n'est pas parce qu'on évalue des probas qu'on "agit par pure mathématique". Il est parti d'un prédicat moral simple assez similaire à celui présent dans les livres d'Asimov: "Toutes les vies humaines ont la même valeur". Il est là contesté et c'est une question philosophique valable à poser. Il ne serait pas difficile de créer un raisonnement mathématique sur d'autres prédicats qui conclurait que l'enfant est à sauver en priorité. Certains ici ont proposé de maximiser le nombre d'années d'espérance de vie sauvées par exemple.

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit