Regardez la suite.
http://www.youtube.com/watch?v=TphFUYRAx_c
"Nice"!

et la suite de la suite
http://www.youtube.com/watch?v=EIxoiLmy5mM
I.
Oui, exactement ce que je pense, en effet.yquemener a écrit :Il faut quand même garder à l'esprit que c'est scripté à mort hein.
Il y a un soft de reconnaissance faciale et vocale, mais la réaction "oh c'est moi, je dois être devant un mirroir" a été programmée et n'est pas issue d'une réflexion du robot.
Bien sûr mais le but c'est de multiplier les "scripts" pour que le robot puisse imiter dans toutes les situations les réactions d'un humain (ou d'un esclave). C'est le but de l'apprentissage. Je ne crois pas que le but de la vidéo vise à tromper mais au contraire à montrer les progrès. On imagine bien que si un étranger arrivait pendant la séance et demandait au robot " c'est bien tu as parlé de miroir, mais est-ce que tu peux m'expliquer ce que c'est et à quoi ça sert" il ne saura pas répondre. Mais il suffit de lui "scripter" ce qu'il faut dire et il répondra et donnera l'impression de savoir. Le but c'est donc bien d'enrichir ses réponses. Un peu comme sur le site ALICE où on peut discuter avec une IA (c'est souvent pénible à entretenir une conversation avec cette poule mais on peut enregistrer des réponses quand elle nous demande ce qu'elle aurait dû répondre - après je sais pas si les réponses proposées sont filtrées). On sait bien que ce sont des réponses préécrites mais l'intérêt c'est justement d'arriver à la piéger (ce qui arrive assez vite, alors là elle passe souvent pour arrogante, vu qu'on lui explique gentiment qu'elle ne sait pas certaines choses et qu'elle répète à envie qu'elle sait tout^^)yquemener a écrit :Il faut quand même garder à l'esprit que c'est scripté à mort hein.
Il y a un soft de reconnaissance faciale et vocale, mais la réaction "oh c'est moi, je dois être devant un mirroir" a été programmée et n'est pas issue d'une réflexion du robot.
Salut embtw.embtw a écrit :Je ne vois rien d'exceptionnel, et d'ailleurs, nous pouvons voir qu'une fois qu'il s'est enregistré, lorsqu'on lui pose la question à nouveau, il dit d'abord "Let me see", ce qui prouve qu'il balaie ce qu'il voit avec son référentiel, le dit référentiel étant probablement une série de points etc ....
Certainement pas "scripté à mort" dans le sens que le robot possède préalablement une "copie de tous" les objets/visages qu'il peut rencontrer dans son environnement.yquemener a écrit :Il faut quand même garder à l'esprit que c'est scripté à mort hein.
C'est ça que je trouve cool, justement. Le robot possède une certaine intelligence, mais il est conçu pour avoir l'air d'être beaucoup plus intelligent qu'il ne l'est vraiment.embtw a écrit :Je dirais même plus que c'est pernicieux parce que cela pourrait laisser croire à certains esprits crédules que le robot est conscient, ce qu'il n'est pas, bien entendu. C'est d'ailleurs ce que me laisse penser la deuxième vidéo.
Je me dis que les intelligences artificielles ne vont justement jamais être programmées pour être vraiment comme des personnes, mais que ce sera toujours - comme ce robot - des simulations de personnalités. Elles pourront donc comprendre les ordres qu'on leur donne ou faire semblant d'avoir des émotions mais, dans les faits, elles n'éprouveront jamais quoique ce soit qui puisse ressembler à un désir de se rebeller. Je ne vois tout simplement pas pourquoi on leur programmerait ce potentiel dangereux.shisha a écrit :Ils sont super développés !!! Je trouve cela impressionnant.
La réalité rattrape la science fiction .. espérons que cela ne finisse pas comme dans matrix ^^
Le "let me see" auquel je faisais référence était celui qui intervient après le "who is this" à 1.20. Il est clairement associé à la phase de recherche dans son référentiel, une version moderne du "Please wait ....."Invité a écrit : "Let me see" fait référence aux capteurs 3-D et pourrait se traduire par : "j'utilise l'algorithme permet de classer cet objet/visage parmi ceux (ou non) qui font partie de ma base de connaissance".
Même si j'ai ultra-simplifié, un visage ou n'importe quelle autre forme est représenté en points; C'est d'ailleurs ainsi, en sens inverse au cinéma, qu'on construit des personnages virtuels, en les bardant de capteurs.Invité a écrit : La reconnaissance de visage ou d'objet en intelligence artificielle est beaucoup plus évoluée que la simple reconnaissance d'une "série de points".
Pas de réseau neuronal ici, ( je sais, ça fait tout de suite moins sexy ) mais une cartographie de l'image calibrée en points. On fait exactement pareil pour les logiciels embarqués de missiles pour les déterminations en temps réel des trajectoires. D'ailleurs, tout vient de là.Invité a écrit : L'algorithme de reconnaissance de visage (dans le cas des robots est un programme de type réseau neuronale artificiel) analyse les caractéristiques de type biométriques (probablement adaptée ici au "visage" de robots) qui permettent la reconnaissance et non pas une simple comparaison de pixels.
Sincèrement, je ne pense pas, la techno utilisée est la même que celle que nous avons dans nos caméscopes et appareils photos numériques pour cadrer l'image.Invité a écrit : D'ailleurs cette reconnaissance de "feature", se base sur la manière dont le cerveau humain fonctionne pour reconnaître un visage. La différence étant donc plus au niveau de la performance que des principes.
Oui dans le sens que si le visage qu'il reconnaît est le sien, on lui a donné l'information qu'il a devant lui un objet qu'il doit classer dans la catégorie "miroir" et qu'il doit ajouter le qualificatif "nice" à l'objet ou le visage reconnu.yquemener a écrit :Il y a un soft de reconnaissance faciale et vocale, mais la réaction "oh c'est moi, je dois être devant un mirroir" a été programmée et n'est pas issue d'une réflexion du robot.
Salut embtw.embtw a écrit :Pas de réseau neuronal ici, ( je sais, ça fait tout de suite moins sexy ) mais une cartographie de l'image calibrée en points.Invité a écrit : L'algorithme de reconnaissance de visage (dans le cas des robots est un programme de type réseau neuronale artificiel) analyse les caractéristiques de type biométriques (probablement adaptée ici au "visage" de robots) qui permettent la reconnaissance et non pas une simple comparaison de pixels.
Some of Qbo prototypes have a Mini-ITX ASUS board, model AT3IONT-I, installed which graphic chip integrates a GPU. So, if our attempts are successful the neural network will be transferred to each one of these prototypes to be used with some API modules leaving the CPU free for other tasks.
http://thecorpora.com/blog/?paged=3
Ça me semble plus évolué que ça.embtw a écrit :Sincèrement, je ne pense pas, la techno utilisée est la même que celle que nous avons dans nos caméscopes et appareils photos numériques pour cadrer l'image.Invité a écrit :D'ailleurs cette reconnaissance de "feature", se base sur la manière dont le cerveau humain fonctionne pour reconnaître un visage. La différence étant donc plus au niveau de la performance que des principes.
Euh, il faudrait que je fasse le tri dans mes cours, mais les réseaux de neurones, ce sont des automates multidimensionnels, dont l'un des aspects est ce qu'on appelle des cubes, notamment, en Finance. Donc, ce n'est pas la technologie usitée en terme de reconnaissance d'image, qui reste une cartographie de points.Invité a écrit : Tu peux donner ta source ? Parce que sur leur site ils disent qu'ils utilisent la technologie des réseaux de neurones. Sexy n'a rien à voir là-dedans. Le nom ne change rien, ça s'appellerait technologie ABC que ça serait pareil. La technologie des réseaux de neurones est utilisée (mais c'est pas la seule) pour les système qui doivent s'adapter à leur environnement.
Salut embtw.embtw a écrit :Il faudrait voir ce qu'ils entendent par réseau neuronal au juste, où cette techno est utilisée.
Moi, je m'imagine ce que les "IA" du futur penseront des capacités cognitives limitées de leurs "ancêtres"Raphaël a écrit :Quand je regarde les vidéos de QBO, je ne peux m'empêcher d'imaginer ce qu'on en pensera dans 20 ou 30 ans...
Pourquoi "bien entendu"? Si le robot n'est pas programmé d'avance pour réagir comme il le fait, s'il est réellement capable d'apprendre seul à se reconnaitre et à se distinguer d'autres robots, je trouve qu'il y a là une forme de manifestation de conscience qui n'est pas négligeable. Bien sûr, on est loin de l'étendue et de la vitesse des capacités cognitives d'un cerveau humain mais ce n'est pas totalement négligeable de ce point de vue.embtw a écrit :Je dirais même plus que c'est pernicieux parce que cela pourrait laisser croire à certains esprits crédules que le robot est conscient, ce qu'il n'est pas, bien entendu
"Bien entendu" parce que ce robot, le QBO, n'est pas conscient de lui, comme pourrait/voudrait nous le faire croire ces vidéos.Jean-Francois a écrit : Pourquoi "bien entendu"? Si le robot n'est pas programmé d'avance pour réagir comme il le fait, s'il est réellement capable d'apprendre seul à se reconnaitre et à se distinguer d'autres robots, je trouve qu'il y a là une forme de manifestation de conscience qui n'est pas négligeable. Bien sûr, on est loin de l'étendue et de la vitesse des capacités cognitives d'un cerveau humain mais ce n'est pas totalement négligeable de ce point de vue.
Après tout, nous-mêmes ne connaissons le monde et interagissons avec via des "interfaces" biologiques. Et, si on vous pose un problème qui demande un moment de réflexion, il y a des chances que vous disiez "attendez, laissez-moi y réfléchir" pour gagner un peu de temps de réflexion avant de répondre.
Jean-François
Pas vraiment. L'expérimentateur lui fournit la bonne classification seulement la première fois que le robot rencontre un objet (une présentation quoiembtw a écrit :PS : "s'il est réellement capable d'apprendre seul à se reconnaitre et à se distinguer d'autres robots". Pas seul non, c'est l'expérimentateur qui lui permet de classer ce qu'il voit.
C'est ça. Je pense de plus que chacune de ses phrases sont scénarisées : "dire ça quand je suis devant un QBO qui imite mes signaux" "dire ca quand je suis devant un autre QBO".Invité a écrit :Oui dans le sens que si le visage qu'il reconnaît est le sien, on lui a donné l'information qu'il a devant lui un objet qu'il doit classer dans la catégorie "miroir" et qu'il doit ajouter le qualificatif "nice" à l'objet ou le visage reconnu.yquemener a écrit :Il y a un soft de reconnaissance faciale et vocale, mais la réaction "oh c'est moi, je dois être devant un mirroir" a été programmée et n'est pas issue d'une réflexion du robot.
Il y a 20 ou 30 ans on avait déjà ce genre de choses. Si vous voulez voir où on en est aujourd'hui, allez voir du coté de Watson, c'est plus intéressant et plus avancé. Mais ce n'est pas dans un corps rigolo à roulettes (ils devraient le faire remarque)Jean-Francois a écrit :Moi, je m'imagine ce que les "IA" du futur penseront des capacités cognitives limitées de leurs "ancêtres"![]()
J'abonde en votre sens, cependant il faut bien comprendre que ce genre de robot n'a en général pas une représentation du monde en mémoire. Fais lui faire 360° sur lui même, il lui faudra repasser par toute la phase de reconnaissance pour re-comprendre qu'il est face à un miroir. Inverse deux phrases dans sa mémoire, et il réagira devant un autre robot comme devant un miroir.Jean-Francois a écrit :Pourquoi "bien entendu"? Si le robot n'est pas programmé d'avance pour réagir comme il le fait, s'il est réellement capable d'apprendre seul à se reconnaître et à se distinguer d'autres robots, je trouve qu'il y a là une forme de manifestation de conscience qui n'est pas négligeable. Bien sûr, on est loin de l'étendue et de la vitesse des capacités cognitives d'un cerveau humain mais ce n'est pas totalement négligeable de ce point de vue.
Oui, forcément les fois d'après, le fait est que la première fois lui est donnée par l'expérimentateur, ensuite, il compare son modèle à celui qu'il voit et hop, c'est dans la poche.Invité a écrit : Pas vraiment. l'expérimentateur lui donne la bonne classification seulement la première fois que le robot rencontre un objet (une présentation quoi), ensuite le robot est autonome à faire la classification des mêmes objets/visages dans d'autres contextes.
I.
Le robot a priori fait la différence en envoyant des signaux lumineux au hasard et en vérifiant si il a une réponse cohérente ou une copie de ce qu'il envoie.embtw a écrit :Mais comme mon troisième gamin a seize mois, j'ai un bon modèle humain. Il a reconnu dans le miroir qu'il était lui, sans que j'ai besoin ( ou ma femmes ou ses deux ainés ) de lui expliquer. Et quand il voit un autre bébé, il ne le prend pas pour lui. Alors que si on mettait un robot de la même couleur, je suis persuadé qu'il serait incapable de faire la différence entre le reflet du miroir et un autre robot. ( Comme je suis incapable d'expliquer pourquoi le bébé y arrive d'ailleurs, Jean-François, à l'aide !!!)
Autrement dit le robot triche pour savoir si c'est son image ou pas. Ce serait très facile de construire un bidule électronique qui pourrait en faire autant et il n'aurait pas besoin de la moindre intelligence pour y arriver.yquemener a écrit :Le robot a priori fait la différence en envoyant des signaux lumineux au hasard et en vérifiant si il a une réponse cohérente ou une copie de ce qu'il envoie.
Utilisateurs parcourant ce forum : Aucun utilisateur inscrit