Re: Un programme bat le champion d'Europe du jeu de go, 5-0
Publié : 21 nov. 2017, 09:26
Bootleneek, c'est en Belgique ca non?

Débattons sans nous battre !
https://forum-sceptique.com/
Bootleneek, c'est en Belgique ca non?
Ce que je trouve intéressant c'est qu'on est passé au delà de la force brute. Le système AlphaZero ne calcule que 80,000 positions à la seconde vs 70,000,000 pour son adversaire StockFish,Denis a écrit : 07 déc. 2017, 04:32
Salut tout le monde,
Après seulement 4 heures de pratique (contre lui-même), AlphaZero vient de planter le plus fort programme d'échecs par le score de 28 victoires, 72 nulles et 0 défaites.
Denis
encore plus proche que ce qu'on pourrait croire effectivement :
Une IA qui développe des IAswitch a écrit : 07 déc. 2017, 09:42
encore plus proche que ce qu'on pourrait croire effectivement :
https://sciencepost.fr/2017/12/lintelli ... de-lhomme/
Salut.
Stephen Polyak a écrit :Before we work on artificial intelligence, why don't we do something about natural stupidity?
Après tout un système sans intelligence, l'évolution, est arrivé à un organe pouvant produire de l'intelligence, il ne peut être exclu que cet organe puisse permettre de construire une machine ayant les mêmes caractéristiques, il ne peut être même être exclu que certaines feront preuve de belle bêtise.Hallucigenia a écrit : 08 déc. 2017, 22:47 Il se passe quelque chose de fort en ce moment dans le domaine de l'IA, et bien malin qui pourra prédire où ça nous mènera.
Il peut y avoir des « erreurs » au sens de « mauvaises » estimations ou autres (je ne suis pas assez calé en AI pour développer sur ces types d'erreurs, bien que passionné, comme vous tous), mais pas au sens où tu l'imagines et le formules, concernant les 0/1 numérique et les composants électroniques. C'est d'ailleurs pourquoi l'informatique fonctionne! S'il y avait des erreurs de 0/1 (peu importe la provenance : code/composants), nous pourrions obtenir des résultats sensiblement différents pour une même opération entre deux PC/logiciel. Et le fichier Word contenant ton CV pourrait se dégrader avec le temps et perdre des lettres, etc.jean7 a écrit : 17 nov. 2017, 01:19Je me dit que si le jeux est complexe, il n'est pas possible de vérifier à chaque coup toutes les conséquences possible jusqu'à l'issue du jeu. On est donc limité à un certain horizon, et on fait un nombre d'opération très élevé. Si élevé que des erreurs deviennent possible (un 0 qui est pris pour un 1 à cause de je ne sais quoi... je suppose donc qu'il existe un certain taux de faillibilité dans un composant électronique, est-ce faux ?)
je vais en rajouter une couche. Il y a eu un cas d'erreur connu, et c'était au milieu des années 90 avec les premier Pentium. Si ma mémoire est bonne, c'était un bug qui pouvait donner une erreur lors de divisions à virgule flottante et les estimations quant à la fréquence de ce bug pour un utilisateur lambda variaient entre quelques mois et quelques milliers d'années. C'est ce qui se rapproche le plus à ma connaissance d'un cas ou "un zéro pouvait devenir un 1 quelque part dans la machine" et ça du coûter dans les 500 millions de dollars à Intel pour faire un rappel de ces processeurs.Dash a écrit : 14 févr. 2018, 17:36Autrement dit, les 0/1 numérique (le code) ne se trompe jamais. Jamais un (seul) zéro ne peut devenir un 1 par « erreur »*. Et si le composant physique déconne, l'effet de la « déconnade » affecte tellement plus qu'un ou deux 0/1 que la résultante provoque l'incapacité d'effectuer l'action~process. Bref, dans ce domaine, c'est blanc ou noir, tout/rien! Ça fonctionne ou ça ne fonctionne pas!
Wow, bonne mémoire! Je m'en souviens: Bug de la division du Pentium.Vathar a écrit : 14 févr. 2018, 19:29 Il y a eu un cas d'erreur connu, et c'était au milieu des années 90 avec les premier Pentium.
C'est celui-ci. Et encore, je ne suis même pas sur que ce soit un bon exemple dans la mesure ou je ne me rappelle plus si un même processeur allait toujours commettre la même erreur ou non. Si c'est le cas, l'erreur est prévisible et, pour autant qu'elle soit potentiellement ennuyeuse, on n'est toujours pas dans le cas d'un 0 qui se transforme en 1.
En effet!Vathar a écrit : 14 févr. 2018, 20:42 C'est celui-ci. Et encore, je ne suis même pas sur que ce soit un bon exemple dans la mesure ou je ne me rappelle plus si un même processeur allait toujours commettre la même erreur ou non. Si c'est le cas, l'erreur est prévisible et, pour autant qu'elle soit potentiellement ennuyeuse, on n'est toujours pas dans le cas d'un 0 qui se transforme en 1.
Ça, c'est une autre question et elle est des plus intéressante! Parce qu'elle met en cause tous les débats/interrogations concernant le déterminisme, la « potentielle conscience » des futures AI et le libre-arbitre, etc.jean7 a écrit : 15 févr. 2018, 03:02 Donc deux IA identiques au temps 0 ne pourraient pas dériver l'une par rapport à l'autre pour des raisons endogènes ?
Si on parle de l'étape de l'entraînement c'est toujours le cas (à moins d'être en période de test ou de débugage). L'initialisation des poids ou connections du réseau est aléatoire, sans parler de techniques de dropout qui désactive des connections au hasard et de l'injection de bruits dans les exemples pour améliorer la performance .Dash a écrit : 15 févr. 2018, 03:51À moins, comme un autre l'a déjà mentionné, qu'une fonction aléatoire soit introduite dans le processus.
J'ai cramé mon quota de composants depuis bientôt 30 ans que je fais joujou avec des ordinateurs et un composant qui se meurt ça a tendance à générer de bons gros écrans bleus. L'un des trucs les plus sournois que j'aie vu ces dernières années et la détérioration des CUDA cores sur une carte graphique. Comme ils ne sont pas sollicités à 100% en permanence, et que leur défaillance entraîne des artefacts graphiques sans nécessairement planter, ça peut parfois paraître foutrement aléatoire, mais encore un fois, l'aléatoire n'est qu'une perception humaine dérivée de la complexité intrinsèque du système observé.Dash a écrit : 15 févr. 2018, 03:07Et un condensateur, chip/PCB, composant qui crame/dysfonctionne dans un PC, ça ne modifie pas subtilement des calculs, ça créer de plus gros problèmes!
Vive le consensus Geth! Dans un tel cas, le terme "pour tous" n'aurait plus de raison d’être. Au niveau le plus basique, la mise en parallèle de plus de ressources pour traiter de plus gros problèmes est un concept éculé en informatique. C'est pas parce que les processeurs actuels ont plus de coeurs que des modèles plus anciens qu'on les perçoit comme des entités multiples. Avoir plusieurs IA traitant le même problème de concert ne serait pas forcément différent d'avoir une grosse IA faisant la même chose.Mais encore, rendu à ce point (ok j'anticipe et fais de la SF) s'ils ont tous la possibilité de communiquer par réseaux afin de tous se partager leurs expériences, qu'adviendra-t-il? Se formera-t-il une espèce de « super-organisme intelligent et conscient » dictant à tous les cyborgs quoi faire? La somme de leurs connaissances deviendra peut-être « l'unique donnée » à analyser et donc « la réponse » pourrait être systématiquement la même pour tous... ...advenant le cas où ils « décident » de ne plus répondre uniquement en fonction de l'expérience unique acquise par chacun
Faut-il comprendre que deux AI matériellement identiques et "cognitivement" identiques à leur naissances et confronté aux mêmes éléments d'apprentissages seront différentes à l'issu de l'apprentissage ?Invité a écrit : 15 févr. 2018, 04:49Si on parle de l'étape de l'entraînement c'est toujours le cas (à moins d'être en période de test ou de débugage). L'initialisation des poids ou connections du réseau est aléatoire, sans parler de techniques de dropout qui désactive des connections au hasard et de l'injection de bruits dans les exemples pour améliorer la performance .Dash a écrit : 15 févr. 2018, 03:51À moins, comme un autre l'a déjà mentionné, qu'une fonction aléatoire soit introduite dans le processus.
Idem. j'ai fais du soutient informatique à domicile pendant des années (et encore pour mes proches, amis, connaissances) et 99.9 % du temps, c'est le Power Supply qui lâche (surtout en été), suivi de la carte vidéo (souvent, ce n'est que le ventilo qui freeze, mais la carte saute ensuite par surchauffe) et, enfin, les disques dure, mais c'est de plus en plus rare. Et c'est le BSOD ou l'écran noir.Vathar a écrit : 15 févr. 2018, 11:58 J'ai cramé mon quota de composants depuis bientôt 30 ans que je fais joujou avec des ordinateurs et un composant qui se meurt ça a tendance à générer de bons gros écrans bleus.
Oui, mais vous prenez soin de spécifier « de concert ». Mais imaginons un AI cyborg qui, mis à part une prog de base nécessaire (faisant office « d’innée »), démarre « sa vie » et son expérience ici, avec moi, dans mon environnement et un autre avec vous, outre-mer dans votre environnement. Et supposons qu’aucun ne puisse communiquer avec une « entité maitresse » délocalisée. Est-ce que leurs expériences perso (faisant office « d’acquis ») seront significatives au point de leur créer une pseudo personnalité~singularité (et donc des réponses sensiblement différentes face à des situations sensiblement similaires) ou bien pas vraiment, car les détails seront de toute façon insignifiants compte tenu des généralités s’appliquant aux humains et un peu à tout? D’autant plus qu’AlphaZero, dès lors qu’il a cessé d’étudier~singer les comportements humains, s’est mis à être bcp plus efficient, comme on la mentionné ici. Bref, j’en sais rien, mais c’est passionnant!Vathar a écrit : 15 févr. 2018, 11:58Avoir plusieurs IA traitant le même problème de concert ne serait pas forcément différent d'avoir une grosse IA faisant la même chose.
Ce qui définit un réseau de deep learning, c'est:jean7 a écrit : 15 févr. 2018, 12:41 Faut-il comprendre que deux AI matériellement identiques et "cognitivement" identiques à leur naissances et confronté aux mêmes éléments d'apprentissages seront différentes à l'issu de l'apprentissage ?