
ChatGPT
Re: ChatGPT
En tout cas il dit que l'homme a été sur la lune et que c'est Al Quaida qui a organisé les attentats du 11 septembre. 

Русский военный корабль, иди нахуй !


Re: ChatGPT
Je ne suis pas d’accord. Dans les faits (les écrits du thread sont là pour le prouver), « nous » (en tous cas, « j’ai ») avons mentionné :juliens a écrit : 15 janv. 2023, 19:06 Je crois que dans cette discussion du forum nous oublions trop que c'est un chat (discussion) et qu'il ne [...] [...]
1- qu’il ne faut pas attribuer de valeurs de vérité à ses réponses,
2- que selon nos formulations nous pouvons lui faire dire une chose et son contraire,
3- et fournis les liens de certaines vidéos qui invitent aussi à la prudence.
Donc « dans cette discussion du forum nous oublions trop que [sic] », je ne vois pas trop ce qui peut te faire penser ça?

Pour le reste, certains d’entre nous s’amusent à le tester, mais nous sommes tous (en tous cas, « je » suis) conscients de ses limites. Faut donc pas prendre certains de nos commentaires au premier degré.
Et sinon, pour certains trucs, pour des « questions d’usage », je le trouve plutôt « performant », précis et pas vraiment moins fiable que les informations que l’on trouve sur Wiki et/ou sur tout autre site (qui nécessitent tous vérification de nos jours).
Tu veux connaitre les principaux symptômes de telle ou telle maladie? (ou l'inverses : à quoi corresponds tel ou tel symptôme [LdM devrait aimer!]), problème, etc., ben dans la grande majorité de cas ce qu'il génère fait sens et est exact après vérification. Mais, dans tous les cas, que ce soit avec ChatGPT ou tout autre site, faut de toute façon jamais prendre pour « argent comptant » et consulter un professionnel.
Tu veux connaitre des commandes informatiques, comment faire ceci ou cela, ben comparativement à une recherche Google, ce que moi je constate, c’est qu’en plus que ce qu’il génère est le plus souvent exacte et fonctionne, c’est encore bcp plus rapide qu’éplucher, lire et faire le trie des liens que me fournis Google pour une même question identique.
Bref, faut relativiser : pour moi ce n’est qu’un outil comme un autre qu’il faut savoir utiliser intelligemment et avec prudence, c’est tout!

Penser savoir est une chose, savoir penser en est une autre !
Re: ChatGPT
Accumulation de connaissances: le mur qui attend ChatGPTDash a écrit : 15 janv. 2023, 23:25Je ne suis pas d’accord. Dans les faits (les écrits du thread sont là pour le prouver), « nous » (en tous cas, « j’ai ») avons mentionné :...juliens a écrit : 15 janv. 2023, 19:06 Je crois que dans cette discussion du forum nous oublions trop que c'est un chat (discussion) et qu'il ne [...] [...]
https://www.sciencepresse.qc.ca/actuali ... nd-chatgpt
Je me questionnais sur le mot Chat dans ChatGPT. Pourquoi? Une conversation avec un IA. Puisque c'est inclus en première page de son appellation, c'est dominant. Je me demandais pourquoi. J'avais des intuitions qui me titillaient les neurones, fatiguant, comme un endroit où je ne pouvais gratter où sa pique. Finalement sciencepresse.qc.ca apporte un soulagement à mon désespoir.Dans le langage de ces chercheurs, cette IA est toutefois avant tout une application qui apprend à converser, de sorte que la qualité des «données langagières» ne compte peut-être pas autant que la quantité de données utilisées pour l’entraîner.
ChatGPT serait avant tout en éducation constante à la conversation. Il apprend à converser selon ses algorithmes (IA) et ses paramètres complexes. Tandis que sa connaissance qu'on lui donne est de fabrication humaine, il n'apprend pas à créer de nouvelle connaissance.. C'est ce qu'il fait, il converse avec la connaissance qu'on lui transmet. L'évolution de cette IA n'est pas nécessairement sa connaissance accumulée, mais bien son apprentissage à converser.
Re: ChatGPT
ChatGPT utilise les statistiques les plus probantes. Alors son dialogue se raffine toujours avec la même logique, selon la probabilité statistique. Par contre, cela diminue la possibilité de sortir des sentiers battus comme dans une conversation normale entre deux humains.Le fait que chaque mot d’un texte soit massivement peu surprenant sur la base des mots précédents dans le texte n’implique pas que le texte dans son ensemble ne serait pas extrêmement surprenant. Si vous avez un texte, vous pouvez calculer pour chaque mot du texte la probabilité (LSMS) la probabilité qu’il suive les mots précédents dans le texte. Vous pouvez également calculer la probabilité (Lidéal) du mot le plus probable qui suivrait le texte précédent.
Lidéal - LSMS est du bruit. Si vous regardez un texte donné, vous pouvez calculer la moyenne du bruit pour chaque mot. Un grand modèle de langage bien formé est capable de produire des textes avec beaucoup moins de bruit que la moyenne du texte dans son corpus de formation.
Pour en savoir plus, Kahneman a écrit Noise: A Flaw in Human Judgment qui explique plus en détail comment un modèle d’apprentissage automatique peut éliminer le bruit et ainsi prendre de meilleures décisions que la moyenne de ses données d’apprentissage.
https://www.lesswrong.com/posts/qkAWySe ... D3IjtGKyH0
Exemple d'une conversation chatGPT qui me semble impossible:
Je crois toujours que c'est sa capacité à converser qui est utile et non sa capacité de stocker l'information, quoique importante. Puisqu'il est toujours en constant apprentissage à converser qui sait... C'est pour ça que je dis que nous ne considérons pas suffisamment sa première fonction, celle de converser.Moi: "blablabla..."
chatGPT: "C'est intéressant ce blablabla, cela me fait penser à ce film qui..."
C'est sur ce point que Google par exemple le supplante carrément. Il est possible que Google nous présente un lien qui réfère au film en question avec le même blablabla.
chatGPT nous présente une "pensée" unique tandis que Google est plus élastique. Je n'oserais pas le dire, mais plus avoisinante d'une certaine flexibilité du cerveau.
Re: ChatGPT
Non. Relisez ce que qu'on a écrit sur la « température ».juliens a écrit : 21 janv. 2023, 22:22 ChatGPT utilise les statistiques les plus probantes. Alors son dialogue se raffine toujours avec la même logique, selon la probabilité statistique. Par contre, cela diminue la possibilité de sortir des sentiers battus comme dans une conversation normale entre deux humains.
I.ChatGPT a écrit :Dans le contexte d'une IA conversationnelle, le paramètre de température détermine la mesure dans laquelle le modèle de langage est susceptible de générer des réponses aléatoires ou "originales" plutôt que de simplement répéter des réponses apprises à partir des données d'entraînement. Plus la température est élevée, plus le modèle est susceptible de générer des réponses qui sont différentes de celles qu'il a vues dans les données d'entraînement, tandis qu'une température plus basse entraînera des réponses plus proches de celles qu'il a vues dans les données d'entraînement.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
La "température" est de la probabilité statistique avant tout. Un texte est généré selon cet écart statistique dont il existe probablement plusieurs paramètres. Je suppose que c'est beaucoup plus que cela, car il me semble qu'il est en constante apprentissage à la conversation. Comment converser, ce qui devrait déterminer sa capacité d'adaptation à une conversation. Plus il converse, plus il apprend à converser.Invité a écrit : 21 janv. 2023, 22:40ChatGPT a écrit :Dans le contexte d'une IA conversationnelle, le paramètre de température détermine la mesure dans laquelle le modèle de langage est susceptible de générer des réponses aléatoires ou "originales" plutôt que de simplement répéter des réponses apprises à partir des données d'entraînement. Plus la température est élevée, plus le modèle est susceptible de générer des réponses qui sont différentes de celles qu'il a vues dans les données d'entraînement, tandis qu'une température plus basse entraînera des réponses plus proches de celles qu'il a vues dans les données d'entraînement.
chatGPT: est-ce que tu apprends à converser?
Je le répète, l'évolution primaire de chatGPT est son évolution dans la compréhension du langage. Nous le voyons aisément lorsqu'il affiche sa compréhension de la question, son interprétation. Une question peut être longue avec plus de subtilité et il la simplifie en 4 mots. Il répondra toujours environ la même chose dans une même température lorsqu'il simplifie notre question à ces mêmes quatre mots, peu importe. Alors sa réponse se limite à la compréhension très simplifiée à la question posée. De facto, il n'erre pas trop même si la température est modifiée puisque c'est l'interprétation de la question qui domine.Oui, je suis un modèle de langage entraîné à converser avec les gens. J'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne, pour comprendre comment les gens utilisent la langue pour communiquer.
Finalement, peu importe sa capacité d'accumuler des textes, c'est sa compréhension du dialogue et du langage qui domine et qui pour l'instant trop rudimentaire pour utiliser son plein potentiel.
La question que je pose, quel est son processus de compréhension du langage, ils disent qu'il est évolutif, qu'il apprend? Comment?
Dernière modification par juliens le 22 janv. 2023, 00:02, modifié 1 fois.
Re: ChatGPT
Vous disiez que « cela diminue la possibilité de sortir des sentiers battus et que chatGPT nous présente une "pensée" unique ».
Je dis simplement que cette possibilité de sortir du discours attendu est contrôlé par ce paramètre et que donc, cette possibilité peut autant diminuer qu'augmenter.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Tu ne comprends pas mon questionnement.Invité a écrit : 22 janv. 2023, 00:01 Vous disiez que « cela diminue la possibilité de sortir des sentiers battus et que chatGPT nous présente une "pensée" unique ».
Je dis simplement que cette possibilité de sortir du discours attendu est contrôlé par ce paramètre et que donc, cette possibilité peut autant diminuer qu'augmenter.
Peu importe la température, c'est la simplification de l'interprétation (sa compréhension) qu'il fait du dialogue ou plus simplement, la question qu'on lui pose qui le limite gravement pour l'instant du moins, comparativement à sa mémoire de connaissance. Plus il comprendra les nuances du langage plus son dialogue (réponse) sera évolutif. Ce qui est différent de sa température.
Re: ChatGPT
Quand il ditjuliens a écrit : 21 janv. 2023, 23:32 chatGPT: est-ce que tu apprends à converser?Je le répète, l'évolution primaire de chatGPT est son évolution dans la compréhension du langage. Nous le voyons aisément lorsqu'il affiche sa compréhension de la question, son interprétation.Oui, je suis un modèle de langage entraîné à converser avec les gens. J'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne, pour comprendre comment les gens utilisent la langue pour communiquer.
il fait référence à sa phase d'entraînement et non pas aux interactions avec ceux avec qui il converse.j'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne
Son évolution ne se produira que lorsqu'il subira un nouvel apprentissage à partir de données plus volumineuses. Bref dans une autre version à venir.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Si plusieurs milliards de textes ne sont pas suffisants pour saisir les nuances du langage et surtout de tronquer nos questions en quelques mots, je ne vois pas en quoi d'en ajouter d'autres milliards ferait la différence. Quelque chose cloche dans cette présomption. C'est plutôt la partie de l'IA qui interprète notre question qui le limite grandement. S'il interprète la question en rapetissant le sens, comment peut-il répondre avec finesse même avec des trillions de textes de plus?Invité a écrit : 22 janv. 2023, 00:13 Quand il ditil fait référence à sa phase d'entraînement et non pas aux interactions avec ceux avec qui il converse.j'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne
Son évolution ne se produira que lorsqu'il subira un nouvel apprentissage à partir de données plus volumineuses. Bref dans une autre version à venir.
- Dominique18
- Messages : 10156
- Inscription : 06 oct. 2020, 12:27
Re: ChatGPT
Une IA reste une IA, qui ne peut être comparée au fonctionnement humain.
Au mieux, "il" semble plus efficace dans certains champs, et pas dans d'autres (cf. contradictions relevées par Dash, invité,...).
C'est un outil technologique puissant, en cours d'évolution, mais qui reste technologique.
Ce que les derniers échanges laissent transparaître.
C'est un outil, étonnant, certes, mais rien de plus.
On peut éprouver une fascination, il faut cependant garder les pieds sur terre.
Cet outil permet de faire d'autres choses, de conduire d'autres types d'investigations, une sorte d'assistant à qui on a toujours besoin de donner des ordres. Il dispose d'une fausse autonomie qui peut faire illusion.
L'IA n'est pas à considérer et à comparer à un système vivant, humain en l'occurrence avec la question du langage qui permet des échanges.
Antonio Damasio * insiste beaucoup, dans ses recherches, sur l'importance de l'émotion, des émotions, dans le processus de construction du vivant. Ces émotions qui constituent un ensemble de facteurs très subtils, qui nécessitent d'être décryptés, et sont en prise directe avec le long processus de l'évolution.
En l'état actuel des connaissances, ce qui relève des émotions est non reproductible, et ce, certainement pour longtemps, peut-être à jamais.
L'évolution du vivant a quelques milliards d'années d'avance. Ce n'est pas en quelques décennies, même en disposant de puissances de calcul inouïes, qu'on peut espérer parvenir à un stade de compréhension suffisant pour espérer rivaliser. On peut toujours s'en approcher, mais ça ne restera qu'une approche, pas une révolution décisive.
L'IA, aussi évoluée et performante soit-elle manquera toujours de l'essentiel : la nourriture du vivant, dans toute sa complexité truffée de paradoxes. C'est un outil hors-sol. Ses capacités, sa réactivité, sa vitesse dépassent les possibilités et l'entendement humains, mais uniquement à ces niveaux d'organisation.
A ce jour, les interactions humaines en présentiel (phénomènes d'interactions animales également observé en éthologie) recèlent encore une bonne part de mystères.
A ce titre, les modules d'apprentissage basés sur l'e-learning, en distanciel, semblent avouer leurs limites (article détaillé à ce sujet dans l'un des derniers numéros de Cerveau & psycho, de mémoire).
* cf. ses deux derniers ouvrages qui donnent un aperçu, un état des lieux :
- L'ordre étrange des choses : la vie, les émotions, et la fabrique de la culture
- Savoir et sentir: une nouvelle théorie de la conscience
Au mieux, "il" semble plus efficace dans certains champs, et pas dans d'autres (cf. contradictions relevées par Dash, invité,...).
C'est un outil technologique puissant, en cours d'évolution, mais qui reste technologique.
Ce que les derniers échanges laissent transparaître.
C'est un outil, étonnant, certes, mais rien de plus.
On peut éprouver une fascination, il faut cependant garder les pieds sur terre.
Cet outil permet de faire d'autres choses, de conduire d'autres types d'investigations, une sorte d'assistant à qui on a toujours besoin de donner des ordres. Il dispose d'une fausse autonomie qui peut faire illusion.
L'IA n'est pas à considérer et à comparer à un système vivant, humain en l'occurrence avec la question du langage qui permet des échanges.
Antonio Damasio * insiste beaucoup, dans ses recherches, sur l'importance de l'émotion, des émotions, dans le processus de construction du vivant. Ces émotions qui constituent un ensemble de facteurs très subtils, qui nécessitent d'être décryptés, et sont en prise directe avec le long processus de l'évolution.
En l'état actuel des connaissances, ce qui relève des émotions est non reproductible, et ce, certainement pour longtemps, peut-être à jamais.
L'évolution du vivant a quelques milliards d'années d'avance. Ce n'est pas en quelques décennies, même en disposant de puissances de calcul inouïes, qu'on peut espérer parvenir à un stade de compréhension suffisant pour espérer rivaliser. On peut toujours s'en approcher, mais ça ne restera qu'une approche, pas une révolution décisive.
L'IA, aussi évoluée et performante soit-elle manquera toujours de l'essentiel : la nourriture du vivant, dans toute sa complexité truffée de paradoxes. C'est un outil hors-sol. Ses capacités, sa réactivité, sa vitesse dépassent les possibilités et l'entendement humains, mais uniquement à ces niveaux d'organisation.
A ce jour, les interactions humaines en présentiel (phénomènes d'interactions animales également observé en éthologie) recèlent encore une bonne part de mystères.
A ce titre, les modules d'apprentissage basés sur l'e-learning, en distanciel, semblent avouer leurs limites (article détaillé à ce sujet dans l'un des derniers numéros de Cerveau & psycho, de mémoire).
* cf. ses deux derniers ouvrages qui donnent un aperçu, un état des lieux :
- L'ordre étrange des choses : la vie, les émotions, et la fabrique de la culture
- Savoir et sentir: une nouvelle théorie de la conscience
Re: ChatGPT
Sauf que si on regarde pour des jeux comme le Go et les échecs, qui ont depuis toujours été considérés comme de bonnes mesures de l'activité créatrice chez les humains, l' «assistant » est devenu le maître. Il a inventé des idées nouvelles et créatives et supérieures aux idées « humaines » et c'est pour ça qu'il domine. Et non ce n'est pas une simple question de rapidité de « calcul » (depuis +20 ans on a dépassé ce stade).Dominique18 a écrit : 22 janv. 2023, 07:59 C'est un outil, étonnant, certes, mais rien de plus.
On peut éprouver une fascination, il faut cependant garder les pieds sur terre.
Cet outil permet de faire d'autres choses, de conduire d'autres types d'investigations, une sorte d'assistant à qui on a toujours besoin de donner des ordres. Il dispose d'une fausse autonomie qui peut faire illusion.
Et pour l'autonomie, disons que ces IA ont dépassé la maîtrise des champions du Monde en quelques heures et à partir d'aucune connaissance préalable. Aujourd'hui aucun humain ne s'approche de la maîtrise du Go et des échecs que possède l'IA. Je ne vois pas ce qui empêche, en principe, de faire pareil dans d'autres domaines d'activité dite créatrice de l'humain.
On peut essayer de se faire croire que ça s'arrêtera là, mais j'en doute.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Le fait qu'il puisse jouer contre lui-même pour apprendre est très intéressant. Par contre, c'est la vitesse d'exécution des superordinateurs qui lui permet de le faire suffisamment rapidement. Par exemple, si nous limitions sa vitesse de calcul et de prédiction à celle du cerveau humain, j'ai bien peur qu'il perde à tout coup avec les journées qu'il devrait utiliser pour faire ses calculs astronomiques.
Son évolution dépend grandement (principalement?) de la vitesse des superordinateurs ou des groupes d'ordinateurs. Globalement son efficacité me semble inférieure au cerveau humain à cause de cela.
Cependant, ça n'enlève rien aux programmeurs.
Son évolution dépend grandement (principalement?) de la vitesse des superordinateurs ou des groupes d'ordinateurs. Globalement son efficacité me semble inférieure au cerveau humain à cause de cela.
Cependant, ça n'enlève rien aux programmeurs.
- Dominique18
- Messages : 10156
- Inscription : 06 oct. 2020, 12:27
Re: ChatGPT
Autre réflexion...
L'IA ne peut pas être comparée au fonctionnement d'un être vivant.Un cerveau sert à agir, pas à réfléchir, neurobiologiquement parlant. Il sert à agir sur son environnement pour se maintenir en vie.
L'IA n'a pas à se soucier de quoi que ce soit à ce niveau, c'est à dire à se poser des questions au sujet de son environnement (elle ne connaît pas les interactions à ce qui s'apparenterait à quelque chose de l'ordre du vivant) pour se maintenir en vie, c'est à dire maintenir sa structure.
En ce sens, l'IA est différent, est autre chose.
C'est en ce sens que j'évoquais la notion d'autonomie.
Il est bien évident que dans des situations comme les jeux à haute valeur (échecs, go,...), l'être humain est dépassé.
Le cerveau humain, et plus globalement le fonctionnement de l'être dans son ensemble, reste étrange, et quelque peu paradoxal à certains niveaux, processus évolutif obligé (genre le hasard et la nécessité). Il ne répond pas à des standards de fonctionnement rationnels, logiques (cf. stades intuitifs et analytiques).
Un être humain est l'un des produits de l'évolution du vivant, pas l'IA qui se situe dans un autre contexte. On ne peut pas comparer ce qui est difficilement comparable. Ce consat ne fait pas référence à des notions d'ordre philosophique mais à l'état actuel des connaissances complexes relatives au vivant (cf. la question des niveaux d'organisation : un être vivant n'est rien sans les autres, neurobiologiquement, neurophysiologiquement.. Une IA n'en est pas à ce stade).
Une IA sert à faire... autre chose.
Il associe différemment, avec une originalité propre, en quelque sorte. Il n'est pas question de supériorité, de domination, ces termes sont trop suspects idéologiquement pour être recevables.
Tout dépend de l'angle considéré, comment on contextualise, quelle définition, on donne à ses performances, en restant dans un cadre, stricto sensu, scientifique.
On se retrouve vite coincé au niveau du langage pour décrire ces processus, comme le rappelait par exemple Étienne Klein. On a toujours recours à des termes qui, toujours selon Klein, ont très peu évolué depuis l'invention de la science moderne, c'est à dire à partir, historiquement, de Galilée.
Le registre de mots, les associations possibles, sont très limitées pour exprimer, pour parler de concepts qui dépassent très largement les possibilités du langage humain. A ce niveau de complexité, on a vite fait d'interpréter et de ne plus se comprendre, excepté pour les spécialistes oeuvrant en collectif dans la même sphère.
Si on n'y prête pas une extrême attention, la formulation des idées, en termes langagiers, devient vite périlleuse et sujette à controverses dispensables, car contre-productives par rapport à l'objectif initial recherché, c'est à dire la communication, permettant la "juste" compréhension.
En l'état actuel des connaissances, le cerveau humain dépend du référentiel considéré, l'IA d'un autre. Disons que depuis ses origines, l'IA est devenue autre et a suivi un chemin différent. Les possibilités évolutives futures ne peuvent que renforcer cette notion. Il est bien évident, toujours suivant le contexte considéré, l'être humain va jouer "petit" et sera dépassé. La suite appartient à l'histoire qui n'est pas encore écrite.
On peut éventuellement en avoir un aperçu, peut-être, il faut prendre des pincettes, en consultant les écrits de nombre d'auteurs de science-fiction (plutôt fiction spéculative, selon les anglo-saxons), comme Philip K.Dick, Isaac Asimov, ...
Ça devrait permettre, parallèlement, de s'occuper l'esprit.
Éventuellement...
https://www.senscritique.com/liste/Les_ ... on/1471386
Il y a de quoi cogiter, la confrontation avec des scénarii recherchés a de quoi alimenter la matière cérébrale.
L'IA ne peut pas être comparée au fonctionnement d'un être vivant.Un cerveau sert à agir, pas à réfléchir, neurobiologiquement parlant. Il sert à agir sur son environnement pour se maintenir en vie.
L'IA n'a pas à se soucier de quoi que ce soit à ce niveau, c'est à dire à se poser des questions au sujet de son environnement (elle ne connaît pas les interactions à ce qui s'apparenterait à quelque chose de l'ordre du vivant) pour se maintenir en vie, c'est à dire maintenir sa structure.
En ce sens, l'IA est différent, est autre chose.
C'est en ce sens que j'évoquais la notion d'autonomie.
Il est bien évident que dans des situations comme les jeux à haute valeur (échecs, go,...), l'être humain est dépassé.
Le cerveau humain, et plus globalement le fonctionnement de l'être dans son ensemble, reste étrange, et quelque peu paradoxal à certains niveaux, processus évolutif obligé (genre le hasard et la nécessité). Il ne répond pas à des standards de fonctionnement rationnels, logiques (cf. stades intuitifs et analytiques).
Un être humain est l'un des produits de l'évolution du vivant, pas l'IA qui se situe dans un autre contexte. On ne peut pas comparer ce qui est difficilement comparable. Ce consat ne fait pas référence à des notions d'ordre philosophique mais à l'état actuel des connaissances complexes relatives au vivant (cf. la question des niveaux d'organisation : un être vivant n'est rien sans les autres, neurobiologiquement, neurophysiologiquement.. Une IA n'en est pas à ce stade).
Une IA sert à faire... autre chose.
Oui et non.Il a inventé des idées nouvelles et créatives et supérieures aux idées « humaines » et c'est pour ça qu'il domine.
Il associe différemment, avec une originalité propre, en quelque sorte. Il n'est pas question de supériorité, de domination, ces termes sont trop suspects idéologiquement pour être recevables.
Tout dépend de l'angle considéré, comment on contextualise, quelle définition, on donne à ses performances, en restant dans un cadre, stricto sensu, scientifique.
On se retrouve vite coincé au niveau du langage pour décrire ces processus, comme le rappelait par exemple Étienne Klein. On a toujours recours à des termes qui, toujours selon Klein, ont très peu évolué depuis l'invention de la science moderne, c'est à dire à partir, historiquement, de Galilée.
Le registre de mots, les associations possibles, sont très limitées pour exprimer, pour parler de concepts qui dépassent très largement les possibilités du langage humain. A ce niveau de complexité, on a vite fait d'interpréter et de ne plus se comprendre, excepté pour les spécialistes oeuvrant en collectif dans la même sphère.
Si on n'y prête pas une extrême attention, la formulation des idées, en termes langagiers, devient vite périlleuse et sujette à controverses dispensables, car contre-productives par rapport à l'objectif initial recherché, c'est à dire la communication, permettant la "juste" compréhension.
En l'état actuel des connaissances, le cerveau humain dépend du référentiel considéré, l'IA d'un autre. Disons que depuis ses origines, l'IA est devenue autre et a suivi un chemin différent. Les possibilités évolutives futures ne peuvent que renforcer cette notion. Il est bien évident, toujours suivant le contexte considéré, l'être humain va jouer "petit" et sera dépassé. La suite appartient à l'histoire qui n'est pas encore écrite.
On peut éventuellement en avoir un aperçu, peut-être, il faut prendre des pincettes, en consultant les écrits de nombre d'auteurs de science-fiction (plutôt fiction spéculative, selon les anglo-saxons), comme Philip K.Dick, Isaac Asimov, ...
Ça devrait permettre, parallèlement, de s'occuper l'esprit.

Éventuellement...
https://www.senscritique.com/liste/Les_ ... on/1471386
Il y a de quoi cogiter, la confrontation avec des scénarii recherchés a de quoi alimenter la matière cérébrale.
Re: ChatGPT
Le PDG d'Open AI.
I.
Le moulin à rumeurs du GPT-4 est une chose ridicule. Je ne sais pas d'où vient tout cela", a déclaré le PDG d'OpenAI. "Les gens supplient d'être déçus et ils le seront. Le battage médiatique est juste comme... Nous n'avons pas de véritable AGI (Artificial general intelligence) et c'est un peu ce que l'on attend de nous
Interrogé sur la distance qui nous sépare du développement de l'AGI, Altman a répondu : "Plus nous nous rapprochons, plus j'ai du mal à répondre. Parce que je pense que ce sera beaucoup plus flou et que la transition sera beaucoup plus graduelle que ce que les gens pensent."
Interrogé sur un graphique viral (et factuellement incorrect) qui compare soi-disant le nombre de paramètres de la GPT-3 (175 milliards) à celui de la GPT-4 (100,000 milliards), M. Altman l'a qualifié de "connerie totale".
Source: https://www.theverge.com/23560328/opena ... -interviewEt Altman a également abordé les prédictions selon lesquelles ChatGPT va tuer Google. "Je pense que chaque fois que quelqu'un parle d'une technologie comme étant la fin d'une autre entreprise géante, c'est généralement faux. Je pense que les gens oublient qu'ils ont la possibilité de faire une contre-attaque ici, et qu'ils sont comme assez intelligents, assez compétents. Je pense vraiment qu'il y a un changement pour la recherche qui va probablement arriver à un moment donné - mais pas aussi dramatiquement que les gens le pensent à court terme."
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Q: Si je coupe un billot en 3 parties égales en 6 minutes, combien de temps ça va me prendre pour couper, à la même cadence, un autre billot semblable en 12 parties égales ?
ChatGPT:
Pour couper un billot en 3 parties égales, ça prend 2 traits de scie. Et 2 traits de scie en 6 minutes veut dire 3 minutes par trait de scie.
Pour couper un billot en 12 parties égales, ça prend 11 traits de scie. La réponse sera dont de 11 traits de scie X 3 minutes/trait de scie = 33 minutes.
Mais disons que moins de 20% des gens trouvent la bonne réponse.
I.
ChatGPT:
Sa réponse est fausse.Il faudra 12 minutes pour couper un autre billot similaire en 12 parties égales, si vous utilisez la même cadence. Cela est dû au fait que la durée est directement proportionnelle à la quantité de morceaux dans lesquels vous devez couper le billot. Si vous coupez un billot en 3 morceaux en 6 minutes, vous devez diviser le temps par le nombre de morceaux pour déterminer combien de temps il faut pour couper un billot en 12 morceaux. Donc 12 morceaux / 3 morceaux = 4, donc 6 minutes x 4 = 12 minutes.
Pour couper un billot en 3 parties égales, ça prend 2 traits de scie. Et 2 traits de scie en 6 minutes veut dire 3 minutes par trait de scie.
Pour couper un billot en 12 parties égales, ça prend 11 traits de scie. La réponse sera dont de 11 traits de scie X 3 minutes/trait de scie = 33 minutes.
Mais disons que moins de 20% des gens trouvent la bonne réponse.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Pour la même question, il me répond plus simplement:Invité a écrit : 24 janv. 2023, 01:39 Q: Si je coupe un billot en 3 parties égales en 6 minutes, combien de temps ça va me prendre pour couper, à la même cadence, un autre billot semblable en 12 parties égales ?
Pas fou comme raisonnement non plus. Mais ça va dans le bon sens. Qui sait demain?Il va vous prendre 12/3 = 4 fois plus de temps pour couper un billot en 12 parties égales qu'en 3 parties égales. Donc, ça va vous prendre 6 minutes x 4 = 24 minutes pour couper un billot en 12 parties égales.
Re: ChatGPT
L’intelligence artificielle ne résoudra pas tout
https://www.ledevoir.com/societe/scienc ... a-pas-tout
https://www.ledevoir.com/societe/scienc ... a-pas-tout
C'est par la recherche fondamentale que nous pourrons orienter l’analyse des données plutôt que de penser naïvement qu’elles viendront par le cheminement inverse.Les auteurs de l’éditorial publié dans Science Signaling ne condamnent pas le recours à l’IA, qu’ils voient plutôt comme une technique permettant d’accélérer les découvertes scientifiques. «Les algorithmes, c’est de la technologie, c’est utile, mais ça ne peut pas remplacer la science (la recherche fondamentale)», ajoute M. Gingras.
Alors ChatGPT est humain ;o)Invité a écrit : 24 janv. 2023, 01:39 Mais disons que moins de 20% des gens trouvent la bonne réponse.
M. Gingras fait également remarquer que « les prédictions [produites par les méthodes de l’IA] ne marchent jamais à 100 %. Elles stagnent en général à 80 %. Elles sont fausses dans 20 % des cas. Il y a donc une incertitude ».
Re: ChatGPT
Mais si on lui donne un indice, il donne la bonne réponse (bref comme on doit le faire pour la majorité des humains).Invité a écrit : 24 janv. 2023, 01:39 Sa réponse est fausse.
Pour couper un billot en 3 parties égales, ça prend 2 traits de scie. Et 2 traits de scie en 6 minutes veut dire 3 minutes par trait de scie.
Pour couper un billot en 12 parties égales, ça prend 11 traits de scie. La réponse sera dont de 11 traits de scie X 3 minutes/trait de scie = 33 minutes.
Q: En tenant compte que le nombre de trait de scie est 1 de moins que le nombre de morceaux, quelle serait votre nouvelle réponse ?
ChatGPT:
Si l'on tient compte du fait que le nombre de traits de scie est 1 de moins que le nombre de morceaux souhaités, pour couper un billot en 12 morceaux égaux, il faudrait 11 traits de scie. En utilisant la même cadence de 3 minutes par trait de scie, il faudrait donc 11 traits de scie x 3 minutes/trait de scie = 33 minutes pour couper un billot en 12 morceaux égaux.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Très intéressant. C'est justement mon questionnement sur sa capacité à analyser le langage. Je me demande quel est sa priorité de développement et est-ce un mur? De toute évidence nos questions doivent être plutôt courtes et relativement précises, du moins pour le moment.Invité a écrit : 24 janv. 2023, 03:16 ChatGPT:
Si l'on tient compte du fait que le nombre de traits de scie est 1 de moins que le nombre de morceaux souhaités, pour couper un billot en 12 morceaux égaux, il faudrait 11 traits de scie. En utilisant la même cadence de 3 minutes par trait de scie, il faudrait donc 11 traits de scie x 3 minutes/trait de scie = 33 minutes pour couper un billot en 12 morceaux égaux.
Re: ChatGPT
Vous défoncez des portes ouvertes.Dominique18 a écrit : 23 janv. 2023, 07:17 Autre réflexion...
En ce sens, l'IA est différent, est autre chose.
[...]
Un être humain est l'un des produits de l'évolution du vivant, pas l'IA qui se situe dans un autre contexte. On ne peut pas comparer ce qui est difficilement comparable. Ce consat ne fait pas référence à des notions d'ordre philosophique mais à l'état actuel des connaissances complexes relatives au vivant (cf. la question des niveaux d'organisation : un être vivant n'est rien sans les autres, neurobiologiquement, neurophysiologiquement.. Une IA n'en est pas à ce stade).
Une IA sert à faire... autre chose.

Si le verbe « dominer » vous dérange, allons-y alors avec « surpasser ».Dominique18 a écrit : 23 janv. 2023, 07:17 Oui et non.
Il associe différemment, avec une originalité propre, en quelque sorte. Il n'est pas question de supériorité, de domination, ces termes sont trop suspects idéologiquement pour être recevables.
Il ne surpasse pas l'humain seulement dans l'optique des gains au Go et aux échecs mais aussi par sa créativité dans ces jeux qui se compare favorablement à l'humain et elle est là la « révolution ». Et de plus en plus, on voit sa créativité se démarquer dans d'autres domaines artistiques.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
- Dominique18
- Messages : 10156
- Inscription : 06 oct. 2020, 12:27
Re: ChatGPT
@ Invité
J'ai parfaitement conscience de ne pas faire preuve de grande originalité. J'essaie de recontextualiser.
Il me semble avoir tenté de cibler quelques problématiques dont celle des possibilités, insuffisances, particularités,... du cerveau humain.
Le cerveau humain, dans sa globalité, est un type d'expression du vivant. Le plus important réside dans les interactions entre le vivant et son environnement.
L'IA, aussi sophistiquée soit-elle, s'exprime dans une autre dimension. Par la suite, qu'en sera-t-il ? Je n'en sais rien, et, à mon grand dam, il y a longtemps que je serai parti les pieds devant, sans avoir pu connaître les suites de l'aventure.
Les performances observées, soit, mais quid des compétences, et surtout, par rapport à quels niveaux d'organisation considérés ?
C'est le genre de discussion où il faut définir un cadre, sinon nous nous égarons ou nous tournons en rond. Autant éviter l'absurde.
Quant à la créativité d'une machine versus celle humaine... C'est faire abstraction du fonctionnement intrinsèque du vivant, des particularités du fonctionnement de l'être humain.
Le propre d'un organisme vivant, c'est d'abord sa survie afin de pouvoir rester en vie. Son programme répond à standards simples : s'alimenter, se reproduire. Ce qui passe par des comportements au cours de son existence, de fuite, de lutte, d'inhibition de l'action. Comme il est doté d'un cortex associatif, par rapport aux autres espèces, il peut imaginer, créer. Fuir en imaginant, en créant.
Il y a également deux circuits fondamentaux dans "l'équipement" des espèces : celui de la récompense, et celui de la punition, ce qui passe par une alchimie neurophysiologique interne et rajoute à la complexité.
Je ne me positionne ni pour une défense du vivant, ni pour celle d'une technologie. J'observe et j'essaie de comprendre avec les moyens dont je dispose.
L'humain, confronté à l'IA, peut servir de référence, de mode de comparaison, à condition d'observer des garde-fous et d'introduire des limites. C'est pour cette raison que j'ai traité du langage.
Il arrive un moment où les modes comparatifs ne peuvent plus être suffisamment opérants, parce qu'il s'agit de paradigmes autres, qui peuvent présenter des similitudes, mais globalement, dans leurs expressions, ce sont des domaines séparés.
Que l'être humain soit quelque peu désemparé par ses créations, à ce niveau, est indéniable.
Il ne dispose pas d'une puissance de calcul équivalente lui permettant de développer des capacités d'adaptation face à un problème donné. Mais, dans certains domaines, il dispose encore de quelques atouts, parce que c'est un organisme vivant, et que l'IA est une création technologique. Après, c'est une toute autre histoire... qui ne sera pas sans conséquences sociales et sociétales.
En l'état actuel des connaissances, le constat est que l' IA associe différemment, avec plus d'efficacité, voire d'originalité, qui reste précisément à définir, dans certaines situations spécifiques, c'est à dire délimitées par un cadre: jeu d'échecs, jeu de go,... Si nous nous plaçons, à ce titre dans une logique de compétition, la technologie va supplanter assurément le participant humain.
Pour d'autres situations, nous en sommes encore à des spéculations (en 2023). La technologie progressant... à suivre...
Ce qui serait intéressant, sur un mode expérimental, plus scientifique, avec un protocole, ce serait de disposer de plusieurs entités distinctes, sans possibilités de communication entre elles, équipées identiquement, et d'étudier leurs réactions quant aux situations proposées.
Manifesteraient-elles des réponses différentes ou celles-ci resteraient-elles identiques ?
J'ai parfaitement conscience de ne pas faire preuve de grande originalité. J'essaie de recontextualiser.
Il me semble avoir tenté de cibler quelques problématiques dont celle des possibilités, insuffisances, particularités,... du cerveau humain.
Le cerveau humain, dans sa globalité, est un type d'expression du vivant. Le plus important réside dans les interactions entre le vivant et son environnement.
L'IA, aussi sophistiquée soit-elle, s'exprime dans une autre dimension. Par la suite, qu'en sera-t-il ? Je n'en sais rien, et, à mon grand dam, il y a longtemps que je serai parti les pieds devant, sans avoir pu connaître les suites de l'aventure.
Les performances observées, soit, mais quid des compétences, et surtout, par rapport à quels niveaux d'organisation considérés ?
C'est le genre de discussion où il faut définir un cadre, sinon nous nous égarons ou nous tournons en rond. Autant éviter l'absurde.
Quant à la créativité d'une machine versus celle humaine... C'est faire abstraction du fonctionnement intrinsèque du vivant, des particularités du fonctionnement de l'être humain.
Le propre d'un organisme vivant, c'est d'abord sa survie afin de pouvoir rester en vie. Son programme répond à standards simples : s'alimenter, se reproduire. Ce qui passe par des comportements au cours de son existence, de fuite, de lutte, d'inhibition de l'action. Comme il est doté d'un cortex associatif, par rapport aux autres espèces, il peut imaginer, créer. Fuir en imaginant, en créant.
Il y a également deux circuits fondamentaux dans "l'équipement" des espèces : celui de la récompense, et celui de la punition, ce qui passe par une alchimie neurophysiologique interne et rajoute à la complexité.
Je ne me positionne ni pour une défense du vivant, ni pour celle d'une technologie. J'observe et j'essaie de comprendre avec les moyens dont je dispose.
L'humain, confronté à l'IA, peut servir de référence, de mode de comparaison, à condition d'observer des garde-fous et d'introduire des limites. C'est pour cette raison que j'ai traité du langage.
Il arrive un moment où les modes comparatifs ne peuvent plus être suffisamment opérants, parce qu'il s'agit de paradigmes autres, qui peuvent présenter des similitudes, mais globalement, dans leurs expressions, ce sont des domaines séparés.
Que l'être humain soit quelque peu désemparé par ses créations, à ce niveau, est indéniable.
Il ne dispose pas d'une puissance de calcul équivalente lui permettant de développer des capacités d'adaptation face à un problème donné. Mais, dans certains domaines, il dispose encore de quelques atouts, parce que c'est un organisme vivant, et que l'IA est une création technologique. Après, c'est une toute autre histoire... qui ne sera pas sans conséquences sociales et sociétales.
En l'état actuel des connaissances, le constat est que l' IA associe différemment, avec plus d'efficacité, voire d'originalité, qui reste précisément à définir, dans certaines situations spécifiques, c'est à dire délimitées par un cadre: jeu d'échecs, jeu de go,... Si nous nous plaçons, à ce titre dans une logique de compétition, la technologie va supplanter assurément le participant humain.
Pour d'autres situations, nous en sommes encore à des spéculations (en 2023). La technologie progressant... à suivre...
Ce qui serait intéressant, sur un mode expérimental, plus scientifique, avec un protocole, ce serait de disposer de plusieurs entités distinctes, sans possibilités de communication entre elles, équipées identiquement, et d'étudier leurs réactions quant aux situations proposées.
Manifesteraient-elles des réponses différentes ou celles-ci resteraient-elles identiques ?
Re: ChatGPT
J'ai hâte de voir l'application de chatGPT en éducation par exemple. Aider les étudiants avec la syntaxe pour apprendre à mieux exprimer leurs pensées, les approfondir. Avertir des faussetés ou mauvaises compréhensions. Signaler certains biais, etc. L'avenir de chatGPT en éducation pourrait être révolutionnaire.
Maintenant la peur du copier-coller en éducation. À ce jour chatGPT ne produit qu'une centaine de mots, il me semble que c'est loin d'être suffisant pour la majorité des travaux. Je ne comprends pas quelque chose?
Et qui dire de l'investissement de multimilliards de Microsoft dans openAI propriétaire de chatGPT?
https://openai.com/blog/openai-and-micr ... rtnership/
Et l'arrivé de: https://gptzero.me/ pour contrer le "plagiat"?
Maintenant la peur du copier-coller en éducation. À ce jour chatGPT ne produit qu'une centaine de mots, il me semble que c'est loin d'être suffisant pour la majorité des travaux. Je ne comprends pas quelque chose?
Et qui dire de l'investissement de multimilliards de Microsoft dans openAI propriétaire de chatGPT?
https://openai.com/blog/openai-and-micr ... rtnership/
Et l'arrivé de: https://gptzero.me/ pour contrer le "plagiat"?
Re: ChatGPT
Si ces « entités » (que j'interprète comme des IA) ne donnaient pas des réponses compatibles au plan factuel, on aurait un gros problème et on pourrait conclure que l'entraînement a échoué. Au plan « créativité » (non factuel), on pourrait, je crois, voir une bonne variabilité.Dominique18 a écrit : 24 janv. 2023, 07:20 @ Invité
Ce qui serait intéressant, sur un mode expérimental, plus scientifique, avec un protocole, ce serait de disposer de plusieurs entités distinctes, sans possibilités de communication entre elles, équipées identiquement, et d'étudier leurs réactions quant aux situations proposées.
Manifesteraient-elles des réponses différentes ou celles-ci resteraient-elles identiques ?
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]
Re: ChatGPT
Un autre avis du vulgarisateur YT "Science4all": https://youtu.be/QprkRP-Dylo
Il défend un modèle opensource "Tournesol": https://tournesol.app/
Il défend un modèle opensource "Tournesol": https://tournesol.app/


Qui est en ligne ?
Utilisateurs parcourant ce forum : jean7