Jean-Francois a écrit : 21 juin 2022, 15:08
Cela dit, ça n'est pas ce que je prétends. Pas plus que je n'affirme qu'être capable d'influer sur le monde rend automatiquement conscient. Ce que je dis, c'est que la machinerie qui permet la conscience est formée en fonction de cette capacité. Pas mal d'auteurs approchant le sujet d'un point de vue biologique (pas informatique) posent un "sense of agency" comme caractéristique de la conscience (ex.
ici; et
ça n'est pas récent). C'est à dire idée que l'on peut agir volontairement. Ce sentiment de pouvoir agir est en partie dû au fait que nous avons un corps mobile. La conscience contient une représentation des capacités du corps. Et le modèle de conscience que nous connaissons le mieux est celui-là.
C'est pourquoi j'ai dit que
pour moi, "il faudrait une coordination poussée entre la "pensée" (le texte) et un autre forme d'output".
En informatique, un programme agissant et capable d'influer sur un monde (généralement virtuel, mais pas toujours) se nomme un agent.
Je te présente alors GATO:
https://www.deepmind.com/publications/a ... list-agent Il s'agit d'un modèle/agent capable avec le même modèle de tenir une conversation textuelle, de contrôler un robot physique, de décrire une image, ou de jouer à des jeux vidéos.
Jean-Francois a écrit : 21 juin 2022, 15:08En plus, à mon avis, si c'était si trivial que ça à reproduire il n'aurait pas pas fallu attendre le XXIe siècle pour y arriver. Il n'y a même pas 20 ans, personne n'aurait pensé sérieusement à se demander si les ordinateurs de l'époque étaient conscients.
Ce que je veux dire c'est que la plupart des définitions précises sont en réalité triviales à implémenter, mais d'une façon insatisfaisante, ce qui pousse vers des définitions plus vagues et ultimement infalsifiables. Je reprends l'exemple que j'avais donné plus haut: "La conscience est le fait d'avoir une représentation de soi-même, au niveau physique et abstrait" et je propose que mon mug sur lequel j'avais dessiné un mug et écrit "je suis un mug" obéit à cette définition simple, claire, mais insatisfaisante.
jean7 a écrit : 21 juin 2022, 16:00Pourquoi une AI devrait tendre vers un truc aussi imparfait que la conscience humaine ?
Oui, c'est un sujet qui ne passionne pas grand monde dans la communauté IA. Reproduire les biais et impression humaines est bien moins utile que de produire un programme capable de reproduire les fonctions de raisonnement et de créativité. La seule raison de faire une chose proche de la conscience humaine serait de communiquer efficacement avec des humains, mais alors on l'accusera de "faire semblant"
Invité a écrit : 21 juin 2022, 16:39
Qu'un neurone s'active ou non selon un input, oui bien sûr qu'on peut voir ça. Mais ça reste une boîte noire dans le sens où, bien que ça puisse approximer n'importe quelle fonction, l'étude de la boîte noire ne donne pas d'indication sur la structure de la fonction approximée.
Je me demande du coup quel serait la situation dans laquelle tu considères qu'on connaît bien le système. On a la formule mathématique qui permet d'activer un neurone donné, on a le gradient indiquant la valeur de chaque paramètre, de chaque neurone, sur l'erreur finale. On a toutes les données qu'on peut souhaite avoir! Les neurobiologistes rêveraient d'avoir un accès aussi aisé aux paramètres des organismes vivants!
Invité a écrit : 21 juin 2022, 16:39On ne trouve pas dans les poids d'AlphaZero d'indication sur la source de sa « créativité ». Sinon cette stratégie aurait été récupérée par les joueurs d'échecs humains.
AlphaZero génère des parties avec des stratégies originales et complexes mais on ne sais pas faire le lien à faire entre les poids du système et ces stratégies. Sur cet aspect ça reste une boîte noire... pour le moment.
Alors c'est marrant que tu parles d'AlphaZero parce que c'est son ancêtre, AlphaGo, qui m'a pour la première fois convaincu que ces modèles de deep learning était capable de créativité et d'abstraction. Et justement parce qu'ils ont fait ce que tu penses impossibles: une des premières choses qu'on apprend au Go, c'est que les coins sont stratégiques, ils ont une valeur particulière. C'est aussi une des premières leçons que l'algo a acquise, et ils l'ont vu en traçant la table "d'attention" pendant qu'il analysait une situation sur le plateau et ils voyaient une attention particulière apportée aux coins et certains neurones ne s'activant que de ces cotés là.
Invité a écrit : 21 juin 2022, 16:39
On ne trouve pas dans les poids d'AlphaZero d'indication sur la source de sa « créativité ». Sinon cette stratégie aurait été récupérée par les joueurs d'échecs humains.
Les humains n'ont pas la puissance de calcul pour utiliser la stratégie d'alphazero. Et si, sa créativité se trouve entièrement dans ses poids et son architecture: les transmettre est tout ce dont a besoin un autre ordinateur pour gagner les mêmes capacités de créativité.
thewild a écrit : 21 juin 2022, 16:54
AplhaStar utilise bien un module LSTM
et un module Transformer... et pas mal d'autres aussi :
J'ignorais! Je me demande ce qu'ils font avec ce transformers et ces entités... Ça donne envie de se plonger dans le modèle!
spin-up a écrit : 21 juin 2022, 19:08
On peut observer beaucoup de corrélats physiques (neuronaux ou informatiques) de la conscience, mais pas l'experience subjective en elle même, sauf chez soi même.
Oui mais à partir du moment où tu peux observer une manifestation objective et physique d'un phénomène, on n'a plus besoin de la partie subjective. Et si une sensation subjective n'est accompagnée d'aucune observation objective, je crois qu'il est légitime de parler d'illusion.
yquemener a écrit : 21 juin 2022, 14:28
Est ce qu'une IA pourrait avoir la capacité de s'auto décrire? C'est à dire d'extraire de ses calculs pas juste un résultat mais une sorte de descriptif de la boite noire
Oui, mais là encore, c'est une définition assez triviale. C'est un exercice rigolo (et ancien) de programmation que de produire un programme capable de sortir son propre code source. On appelle ça des quines. On peut aussi utiliser Linux pour afficher le code source de Linux.
yquemener a écrit : 21 juin 2022, 14:28voire des principes directeurs utilisables par l'humain.
Là on achoppe un peu, parce que ça demande à comprendre les humains et leur processus mental, leurs limitations et leurs fulgurances, un peu mieux. Mais je suis convaincu que les modèles de langage vont grandement aider là dessus, c'est un sujet qu'on nomme "explainability".
yquemener a écrit : 21 juin 2022, 14:28Pour moi, c'est LA question la plus intéressante au sujet du deep learning. Pouvoir l'utiliser pas seulement pour obtenir des résultats mais pour produire des modèles et des théories. Le potentiel serait inimaginable.
Ah mais ça on le fait déjà: AutoML permet d'améliorer automatiquement des modèles de deep learning en suggérant des modifications d'architecture. Quant aux théories, des outils de machine learning, même pas "deep" permettent de discerner des lois physiques dans un fouillis de données.
Deepmind travaille (et a eu de bons succès déjà) au contrôle du plasma dans des tokamaks et stellerators:
https://www.deepmind.com/blog/accelerat ... ma-control
Il se peut tout à fait que des modèles d'IA découvrent des configurations de fusion beaucoup plus efficaces et qu'on gagne 20 ans sur la planning dans cette histoire.
L'équipe à l'origine d'AlphaStar est elle passée à un problème plus sérieux que Starcraft: la simulation du repliement des protéines, "clef de Rosette" du vivant. Et... ils l'ont résolu quasiment les doigts dans le nez en 2020:
https://www.nature.com/articles/d41586-020-03348-4
Attendez vous à des avancées dans tous les domaines avec ces techniques.
DictionnairErroné a écrit : 22 juin 2022, 15:35
Autre chose, un IA peut-il décider de ce qu'il va faire aujourd'hui.
Oui, on pourrait lui fixer un but aléatoire ou arbitraire et la laisser décider et on pourrait même lui faire générer une excuse bidon pour ça.
Tiens, d'ailleurs depuis mon message précédent (qui date d'il y a 3 jours, désolé du délai) Eleuther AI a mis en ligne un modèle plus gros, passant de 6 milliards à 20 milliards de paramètres. Je viens de lui demander ses plans pour aujourd'hui:
Me: What are you going to do today?
EleutherAI: I was going to write a blog about my adventures in the city, but it's getting late now,
Me: Why did you want to do that?
EleutherAI: I wanted to give people an idea of what it's like to live here. The culture, the food, and so on