ChatGPT

Tout sur les sciences, que ce soit la chimie, la biologie, l'astronomie etc.
Avatar de l’utilisateur
Lambert85
Messages : 8201
Inscription : 23 nov. 2007, 07:48

Re: ChatGPT

#126

Message par Lambert85 » 15 janv. 2023, 20:14

En tout cas il dit que l'homme a été sur la lune et que c'est Al Quaida qui a organisé les attentats du 11 septembre. ;)
Русский военный корабль, иди нахуй ! 🇺🇦 :sniper:

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#127

Message par Dash » 15 janv. 2023, 23:25

juliens a écrit : 15 janv. 2023, 19:06 Je crois que dans cette discussion du forum nous oublions trop que c'est un chat (discussion) et qu'il ne [...] [...]
Je ne suis pas d’accord. Dans les faits (les écrits du thread sont là pour le prouver), « nous » (en tous cas, « j’ai ») avons mentionné :

1- qu’il ne faut pas attribuer de valeurs de vérité à ses réponses,

2- que selon nos formulations nous pouvons lui faire dire une chose et son contraire,

3- et fournis les liens de certaines vidéos qui invitent aussi à la prudence.

Donc « dans cette discussion du forum nous oublions trop que [sic] », je ne vois pas trop ce qui peut te faire penser ça? :hausse:

Pour le reste, certains d’entre nous s’amusent à le tester, mais nous sommes tous (en tous cas, « je » suis) conscients de ses limites. Faut donc pas prendre certains de nos commentaires au premier degré.

Et sinon, pour certains trucs, pour des « questions d’usage », je le trouve plutôt « performant », précis et pas vraiment moins fiable que les informations que l’on trouve sur Wiki et/ou sur tout autre site (qui nécessitent tous vérification de nos jours).

Tu veux connaitre les principaux symptômes de telle ou telle maladie? (ou l'inverses : à quoi corresponds tel ou tel symptôme [LdM devrait aimer!]), problème, etc., ben dans la grande majorité de cas ce qu'il génère fait sens et est exact après vérification. Mais, dans tous les cas, que ce soit avec ChatGPT ou tout autre site, faut de toute façon jamais prendre pour « argent comptant » et consulter un professionnel.

Tu veux connaitre des commandes informatiques, comment faire ceci ou cela, ben comparativement à une recherche Google, ce que moi je constate, c’est qu’en plus que ce qu’il génère est le plus souvent exacte et fonctionne, c’est encore bcp plus rapide qu’éplucher, lire et faire le trie des liens que me fournis Google pour une même question identique.

Bref, faut relativiser : pour moi ce n’est qu’un outil comme un autre qu’il faut savoir utiliser intelligemment et avec prudence, c’est tout! :hausse:
Penser savoir est une chose, savoir penser en est une autre !

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#128

Message par juliens » 20 janv. 2023, 13:08

Dash a écrit : 15 janv. 2023, 23:25
juliens a écrit : 15 janv. 2023, 19:06 Je crois que dans cette discussion du forum nous oublions trop que c'est un chat (discussion) et qu'il ne [...] [...]
Je ne suis pas d’accord. Dans les faits (les écrits du thread sont là pour le prouver), « nous » (en tous cas, « j’ai ») avons mentionné :...
Accumulation de connaissances: le mur qui attend ChatGPT
https://www.sciencepresse.qc.ca/actuali ... nd-chatgpt
Dans le langage de ces chercheurs, cette IA est toutefois avant tout une application qui apprend à converser, de sorte que la qualité des «données langagières» ne compte peut-être pas autant que la quantité de données utilisées pour l’entraîner.
Je me questionnais sur le mot Chat dans ChatGPT. Pourquoi? Une conversation avec un IA. Puisque c'est inclus en première page de son appellation, c'est dominant. Je me demandais pourquoi. J'avais des intuitions qui me titillaient les neurones, fatiguant, comme un endroit où je ne pouvais gratter où sa pique. Finalement sciencepresse.qc.ca apporte un soulagement à mon désespoir.

ChatGPT serait avant tout en éducation constante à la conversation. Il apprend à converser selon ses algorithmes (IA) et ses paramètres complexes. Tandis que sa connaissance qu'on lui donne est de fabrication humaine, il n'apprend pas à créer de nouvelle connaissance.. C'est ce qu'il fait, il converse avec la connaissance qu'on lui transmet. L'évolution de cette IA n'est pas nécessairement sa connaissance accumulée, mais bien son apprentissage à converser.

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#129

Message par juliens » 21 janv. 2023, 22:22

Le fait que chaque mot d’un texte soit massivement peu surprenant sur la base des mots précédents dans le texte n’implique pas que le texte dans son ensemble ne serait pas extrêmement surprenant. Si vous avez un texte, vous pouvez calculer pour chaque mot du texte la probabilité (LSMS) la probabilité qu’il suive les mots précédents dans le texte. Vous pouvez également calculer la probabilité (Lidéal) du mot le plus probable qui suivrait le texte précédent.

Lidéal - LSMS est du bruit. Si vous regardez un texte donné, vous pouvez calculer la moyenne du bruit pour chaque mot. Un grand modèle de langage bien formé est capable de produire des textes avec beaucoup moins de bruit que la moyenne du texte dans son corpus de formation.

Pour en savoir plus, Kahneman a écrit Noise: A Flaw in Human Judgment qui explique plus en détail comment un modèle d’apprentissage automatique peut éliminer le bruit et ainsi prendre de meilleures décisions que la moyenne de ses données d’apprentissage.
https://www.lesswrong.com/posts/qkAWySe ... D3IjtGKyH0
ChatGPT utilise les statistiques les plus probantes. Alors son dialogue se raffine toujours avec la même logique, selon la probabilité statistique. Par contre, cela diminue la possibilité de sortir des sentiers battus comme dans une conversation normale entre deux humains.

Exemple d'une conversation chatGPT qui me semble impossible:
Moi: "blablabla..."

chatGPT: "C'est intéressant ce blablabla, cela me fait penser à ce film qui..."
Je crois toujours que c'est sa capacité à converser qui est utile et non sa capacité de stocker l'information, quoique importante. Puisqu'il est toujours en constant apprentissage à converser qui sait... C'est pour ça que je dis que nous ne considérons pas suffisamment sa première fonction, celle de converser.

C'est sur ce point que Google par exemple le supplante carrément. Il est possible que Google nous présente un lien qui réfère au film en question avec le même blablabla.

chatGPT nous présente une "pensée" unique tandis que Google est plus élastique. Je n'oserais pas le dire, mais plus avoisinante d'une certaine flexibilité du cerveau.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#130

Message par Invité » 21 janv. 2023, 22:40

juliens a écrit : 21 janv. 2023, 22:22 ChatGPT utilise les statistiques les plus probantes. Alors son dialogue se raffine toujours avec la même logique, selon la probabilité statistique. Par contre, cela diminue la possibilité de sortir des sentiers battus comme dans une conversation normale entre deux humains.
Non. Relisez ce que qu'on a écrit sur la « température ».
ChatGPT a écrit :Dans le contexte d'une IA conversationnelle, le paramètre de température détermine la mesure dans laquelle le modèle de langage est susceptible de générer des réponses aléatoires ou "originales" plutôt que de simplement répéter des réponses apprises à partir des données d'entraînement. Plus la température est élevée, plus le modèle est susceptible de générer des réponses qui sont différentes de celles qu'il a vues dans les données d'entraînement, tandis qu'une température plus basse entraînera des réponses plus proches de celles qu'il a vues dans les données d'entraînement.
I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#131

Message par juliens » 21 janv. 2023, 23:32

Invité a écrit : 21 janv. 2023, 22:40
ChatGPT a écrit :Dans le contexte d'une IA conversationnelle, le paramètre de température détermine la mesure dans laquelle le modèle de langage est susceptible de générer des réponses aléatoires ou "originales" plutôt que de simplement répéter des réponses apprises à partir des données d'entraînement. Plus la température est élevée, plus le modèle est susceptible de générer des réponses qui sont différentes de celles qu'il a vues dans les données d'entraînement, tandis qu'une température plus basse entraînera des réponses plus proches de celles qu'il a vues dans les données d'entraînement.
La "température" est de la probabilité statistique avant tout. Un texte est généré selon cet écart statistique dont il existe probablement plusieurs paramètres. Je suppose que c'est beaucoup plus que cela, car il me semble qu'il est en constante apprentissage à la conversation. Comment converser, ce qui devrait déterminer sa capacité d'adaptation à une conversation. Plus il converse, plus il apprend à converser.

chatGPT: est-ce que tu apprends à converser?
Oui, je suis un modèle de langage entraîné à converser avec les gens. J'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne, pour comprendre comment les gens utilisent la langue pour communiquer.
Je le répète, l'évolution primaire de chatGPT est son évolution dans la compréhension du langage. Nous le voyons aisément lorsqu'il affiche sa compréhension de la question, son interprétation. Une question peut être longue avec plus de subtilité et il la simplifie en 4 mots. Il répondra toujours environ la même chose dans une même température lorsqu'il simplifie notre question à ces mêmes quatre mots, peu importe. Alors sa réponse se limite à la compréhension très simplifiée à la question posée. De facto, il n'erre pas trop même si la température est modifiée puisque c'est l'interprétation de la question qui domine.

Finalement, peu importe sa capacité d'accumuler des textes, c'est sa compréhension du dialogue et du langage qui domine et qui pour l'instant trop rudimentaire pour utiliser son plein potentiel.

La question que je pose, quel est son processus de compréhension du langage, ils disent qu'il est évolutif, qu'il apprend? Comment?
Dernière modification par juliens le 22 janv. 2023, 00:02, modifié 1 fois.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#132

Message par Invité » 22 janv. 2023, 00:01

juliens a écrit : 21 janv. 2023, 23:32 ...
Vous disiez que « cela diminue la possibilité de sortir des sentiers battus et que chatGPT nous présente une "pensée" unique ».

Je dis simplement que cette possibilité de sortir du discours attendu est contrôlé par ce paramètre et que donc, cette possibilité peut autant diminuer qu'augmenter.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#133

Message par juliens » 22 janv. 2023, 00:03

Invité a écrit : 22 janv. 2023, 00:01 Vous disiez que « cela diminue la possibilité de sortir des sentiers battus et que chatGPT nous présente une "pensée" unique ».

Je dis simplement que cette possibilité de sortir du discours attendu est contrôlé par ce paramètre et que donc, cette possibilité peut autant diminuer qu'augmenter.
Tu ne comprends pas mon questionnement.

Peu importe la température, c'est la simplification de l'interprétation (sa compréhension) qu'il fait du dialogue ou plus simplement, la question qu'on lui pose qui le limite gravement pour l'instant du moins, comparativement à sa mémoire de connaissance. Plus il comprendra les nuances du langage plus son dialogue (réponse) sera évolutif. Ce qui est différent de sa température.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#134

Message par Invité » 22 janv. 2023, 00:13

juliens a écrit : 21 janv. 2023, 23:32 chatGPT: est-ce que tu apprends à converser?
Oui, je suis un modèle de langage entraîné à converser avec les gens. J'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne, pour comprendre comment les gens utilisent la langue pour communiquer.
Je le répète, l'évolution primaire de chatGPT est son évolution dans la compréhension du langage. Nous le voyons aisément lorsqu'il affiche sa compréhension de la question, son interprétation.
Quand il dit
j'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne
il fait référence à sa phase d'entraînement et non pas aux interactions avec ceux avec qui il converse.

Son évolution ne se produira que lorsqu'il subira un nouvel apprentissage à partir de données plus volumineuses. Bref dans une autre version à venir.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#135

Message par juliens » 22 janv. 2023, 00:52

Invité a écrit : 22 janv. 2023, 00:13 Quand il dit
j'apprends en analysant de grandes quantités de données de textes, comme des articles, des livres et des conversations en ligne
il fait référence à sa phase d'entraînement et non pas aux interactions avec ceux avec qui il converse.

Son évolution ne se produira que lorsqu'il subira un nouvel apprentissage à partir de données plus volumineuses. Bref dans une autre version à venir.
Si plusieurs milliards de textes ne sont pas suffisants pour saisir les nuances du langage et surtout de tronquer nos questions en quelques mots, je ne vois pas en quoi d'en ajouter d'autres milliards ferait la différence. Quelque chose cloche dans cette présomption. C'est plutôt la partie de l'IA qui interprète notre question qui le limite grandement. S'il interprète la question en rapetissant le sens, comment peut-il répondre avec finesse même avec des trillions de textes de plus?

Avatar de l’utilisateur
Dominique18
Messages : 10156
Inscription : 06 oct. 2020, 12:27

Re: ChatGPT

#136

Message par Dominique18 » 22 janv. 2023, 07:59

Une IA reste une IA, qui ne peut être comparée au fonctionnement humain.
Au mieux, "il" semble plus efficace dans certains champs, et pas dans d'autres (cf. contradictions relevées par Dash, invité,...).
C'est un outil technologique puissant, en cours d'évolution, mais qui reste technologique.
Ce que les derniers échanges laissent transparaître.

C'est un outil, étonnant, certes, mais rien de plus.
On peut éprouver une fascination, il faut cependant garder les pieds sur terre.
Cet outil permet de faire d'autres choses, de conduire d'autres types d'investigations, une sorte d'assistant à qui on a toujours besoin de donner des ordres. Il dispose d'une fausse autonomie qui peut faire illusion.

L'IA n'est pas à considérer et à comparer à un système vivant, humain en l'occurrence avec la question du langage qui permet des échanges.
Antonio Damasio * insiste beaucoup, dans ses recherches, sur l'importance de l'émotion, des émotions, dans le processus de construction du vivant. Ces émotions qui constituent un ensemble de facteurs très subtils, qui nécessitent d'être décryptés, et sont en prise directe avec le long processus de l'évolution.

En l'état actuel des connaissances, ce qui relève des émotions est non reproductible, et ce, certainement pour longtemps, peut-être à jamais.
L'évolution du vivant a quelques milliards d'années d'avance. Ce n'est pas en quelques décennies, même en disposant de puissances de calcul inouïes, qu'on peut espérer parvenir à un stade de compréhension suffisant pour espérer rivaliser. On peut toujours s'en approcher, mais ça ne restera qu'une approche, pas une révolution décisive.

L'IA, aussi évoluée et performante soit-elle manquera toujours de l'essentiel : la nourriture du vivant, dans toute sa complexité truffée de paradoxes. C'est un outil hors-sol. Ses capacités, sa réactivité, sa vitesse dépassent les possibilités et l'entendement humains, mais uniquement à ces niveaux d'organisation.

A ce jour, les interactions humaines en présentiel (phénomènes d'interactions animales également observé en éthologie) recèlent encore une bonne part de mystères.
A ce titre, les modules d'apprentissage basés sur l'e-learning, en distanciel, semblent avouer leurs limites (article détaillé à ce sujet dans l'un des derniers numéros de Cerveau & psycho, de mémoire).

* cf. ses deux derniers ouvrages qui donnent un aperçu, un état des lieux :
- L'ordre étrange des choses : la vie, les émotions, et la fabrique de la culture
- Savoir et sentir: une nouvelle théorie de la conscience

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#137

Message par Invité » 22 janv. 2023, 16:53

Dominique18 a écrit : 22 janv. 2023, 07:59 C'est un outil, étonnant, certes, mais rien de plus.
On peut éprouver une fascination, il faut cependant garder les pieds sur terre.
Cet outil permet de faire d'autres choses, de conduire d'autres types d'investigations, une sorte d'assistant à qui on a toujours besoin de donner des ordres. Il dispose d'une fausse autonomie qui peut faire illusion.
Sauf que si on regarde pour des jeux comme le Go et les échecs, qui ont depuis toujours été considérés comme de bonnes mesures de l'activité créatrice chez les humains, l' «assistant » est devenu le maître. Il a inventé des idées nouvelles et créatives et supérieures aux idées « humaines » et c'est pour ça qu'il domine. Et non ce n'est pas une simple question de rapidité de « calcul » (depuis +20 ans on a dépassé ce stade).

Et pour l'autonomie, disons que ces IA ont dépassé la maîtrise des champions du Monde en quelques heures et à partir d'aucune connaissance préalable. Aujourd'hui aucun humain ne s'approche de la maîtrise du Go et des échecs que possède l'IA. Je ne vois pas ce qui empêche, en principe, de faire pareil dans d'autres domaines d'activité dite créatrice de l'humain.

On peut essayer de se faire croire que ça s'arrêtera là, mais j'en doute.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#138

Message par juliens » 22 janv. 2023, 18:32

Le fait qu'il puisse jouer contre lui-même pour apprendre est très intéressant. Par contre, c'est la vitesse d'exécution des superordinateurs qui lui permet de le faire suffisamment rapidement. Par exemple, si nous limitions sa vitesse de calcul et de prédiction à celle du cerveau humain, j'ai bien peur qu'il perde à tout coup avec les journées qu'il devrait utiliser pour faire ses calculs astronomiques.

Son évolution dépend grandement (principalement?) de la vitesse des superordinateurs ou des groupes d'ordinateurs. Globalement son efficacité me semble inférieure au cerveau humain à cause de cela.

Cependant, ça n'enlève rien aux programmeurs.

Avatar de l’utilisateur
Dominique18
Messages : 10156
Inscription : 06 oct. 2020, 12:27

Re: ChatGPT

#139

Message par Dominique18 » 23 janv. 2023, 07:17

Autre réflexion...
L'IA ne peut pas être comparée au fonctionnement d'un être vivant.Un cerveau sert à agir, pas à réfléchir, neurobiologiquement parlant. Il sert à agir sur son environnement pour se maintenir en vie.

L'IA n'a pas à se soucier de quoi que ce soit à ce niveau, c'est à dire à se poser des questions au sujet de son environnement (elle ne connaît pas les interactions à ce qui s'apparenterait à quelque chose de l'ordre du vivant) pour se maintenir en vie, c'est à dire maintenir sa structure.

En ce sens, l'IA est différent, est autre chose.
C'est en ce sens que j'évoquais la notion d'autonomie.
Il est bien évident que dans des situations comme les jeux à haute valeur (échecs, go,...), l'être humain est dépassé.

Le cerveau humain, et plus globalement le fonctionnement de l'être dans son ensemble, reste étrange, et quelque peu paradoxal à certains niveaux, processus évolutif obligé (genre le hasard et la nécessité). Il ne répond pas à des standards de fonctionnement rationnels, logiques (cf. stades intuitifs et analytiques).

Un être humain est l'un des produits de l'évolution du vivant, pas l'IA qui se situe dans un autre contexte. On ne peut pas comparer ce qui est difficilement comparable. Ce consat ne fait pas référence à des notions d'ordre philosophique mais à l'état actuel des connaissances complexes relatives au vivant (cf. la question des niveaux d'organisation : un être vivant n'est rien sans les autres, neurobiologiquement, neurophysiologiquement.. Une IA n'en est pas à ce stade).

Une IA sert à faire... autre chose.
Il a inventé des idées nouvelles et créatives et supérieures aux idées « humaines » et c'est pour ça qu'il domine.
Oui et non.
Il associe différemment, avec une originalité propre, en quelque sorte. Il n'est pas question de supériorité, de domination, ces termes sont trop suspects idéologiquement pour être recevables.
Tout dépend de l'angle considéré, comment on contextualise, quelle définition, on donne à ses performances, en restant dans un cadre, stricto sensu, scientifique.

On se retrouve vite coincé au niveau du langage pour décrire ces processus, comme le rappelait par exemple Étienne Klein. On a toujours recours à des termes qui, toujours selon Klein, ont très peu évolué depuis l'invention de la science moderne, c'est à dire à partir, historiquement, de Galilée.

Le registre de mots, les associations possibles, sont très limitées pour exprimer, pour parler de concepts qui dépassent très largement les possibilités du langage humain. A ce niveau de complexité, on a vite fait d'interpréter et de ne plus se comprendre, excepté pour les spécialistes oeuvrant en collectif dans la même sphère.
Si on n'y prête pas une extrême attention, la formulation des idées, en termes langagiers, devient vite périlleuse et sujette à controverses dispensables, car contre-productives par rapport à l'objectif initial recherché, c'est à dire la communication, permettant la "juste" compréhension.

En l'état actuel des connaissances, le cerveau humain dépend du référentiel considéré, l'IA d'un autre. Disons que depuis ses origines, l'IA est devenue autre et a suivi un chemin différent. Les possibilités évolutives futures ne peuvent que renforcer cette notion. Il est bien évident, toujours suivant le contexte considéré, l'être humain va jouer "petit" et sera dépassé. La suite appartient à l'histoire qui n'est pas encore écrite.
On peut éventuellement en avoir un aperçu, peut-être, il faut prendre des pincettes, en consultant les écrits de nombre d'auteurs de science-fiction (plutôt fiction spéculative, selon les anglo-saxons), comme Philip K.Dick, Isaac Asimov, ...
Ça devrait permettre, parallèlement, de s'occuper l'esprit. ;)

Éventuellement...

https://www.senscritique.com/liste/Les_ ... on/1471386

Il y a de quoi cogiter, la confrontation avec des scénarii recherchés a de quoi alimenter la matière cérébrale.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#140

Message par Invité » 23 janv. 2023, 19:52

Le PDG d'Open AI.
Le moulin à rumeurs du GPT-4 est une chose ridicule. Je ne sais pas d'où vient tout cela", a déclaré le PDG d'OpenAI. "Les gens supplient d'être déçus et ils le seront. Le battage médiatique est juste comme... Nous n'avons pas de véritable AGI (Artificial general intelligence) et c'est un peu ce que l'on attend de nous
Interrogé sur la distance qui nous sépare du développement de l'AGI, Altman a répondu : "Plus nous nous rapprochons, plus j'ai du mal à répondre. Parce que je pense que ce sera beaucoup plus flou et que la transition sera beaucoup plus graduelle que ce que les gens pensent."
Interrogé sur un graphique viral (et factuellement incorrect) qui compare soi-disant le nombre de paramètres de la GPT-3 (175 milliards) à celui de la GPT-4 (100,000 milliards), M. Altman l'a qualifié de "connerie totale".
Et Altman a également abordé les prédictions selon lesquelles ChatGPT va tuer Google. "Je pense que chaque fois que quelqu'un parle d'une technologie comme étant la fin d'une autre entreprise géante, c'est généralement faux. Je pense que les gens oublient qu'ils ont la possibilité de faire une contre-attaque ici, et qu'ils sont comme assez intelligents, assez compétents. Je pense vraiment qu'il y a un changement pour la recherche qui va probablement arriver à un moment donné - mais pas aussi dramatiquement que les gens le pensent à court terme."
Source: https://www.theverge.com/23560328/opena ... -interview

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#141

Message par Invité » 24 janv. 2023, 01:39

Q: Si je coupe un billot en 3 parties égales en 6 minutes, combien de temps ça va me prendre pour couper, à la même cadence, un autre billot semblable en 12 parties égales ?

ChatGPT:
Il faudra 12 minutes pour couper un autre billot similaire en 12 parties égales, si vous utilisez la même cadence. Cela est dû au fait que la durée est directement proportionnelle à la quantité de morceaux dans lesquels vous devez couper le billot. Si vous coupez un billot en 3 morceaux en 6 minutes, vous devez diviser le temps par le nombre de morceaux pour déterminer combien de temps il faut pour couper un billot en 12 morceaux. Donc 12 morceaux / 3 morceaux = 4, donc 6 minutes x 4 = 12 minutes.
Sa réponse est fausse.

Pour couper un billot en 3 parties égales, ça prend 2 traits de scie. Et 2 traits de scie en 6 minutes veut dire 3 minutes par trait de scie.

Pour couper un billot en 12 parties égales, ça prend 11 traits de scie. La réponse sera dont de 11 traits de scie X 3 minutes/trait de scie = 33 minutes.

Mais disons que moins de 20% des gens trouvent la bonne réponse.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#142

Message par juliens » 24 janv. 2023, 02:07

Invité a écrit : 24 janv. 2023, 01:39 Q: Si je coupe un billot en 3 parties égales en 6 minutes, combien de temps ça va me prendre pour couper, à la même cadence, un autre billot semblable en 12 parties égales ?
Pour la même question, il me répond plus simplement:
Il va vous prendre 12/3 = 4 fois plus de temps pour couper un billot en 12 parties égales qu'en 3 parties égales. Donc, ça va vous prendre 6 minutes x 4 = 24 minutes pour couper un billot en 12 parties égales.
Pas fou comme raisonnement non plus. Mais ça va dans le bon sens. Qui sait demain?

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#143

Message par juliens » 24 janv. 2023, 03:04

L’intelligence artificielle ne résoudra pas tout
https://www.ledevoir.com/societe/scienc ... a-pas-tout
Les auteurs de l’éditorial publié dans Science Signaling ne condamnent pas le recours à l’IA, qu’ils voient plutôt comme une technique permettant d’accélérer les découvertes scientifiques. «Les algorithmes, c’est de la technologie, c’est utile, mais ça ne peut pas remplacer la science (la recherche fondamentale)», ajoute M. Gingras.
C'est par la recherche fondamentale que nous pourrons orienter l’analyse des données plutôt que de penser naïvement qu’elles viendront par le cheminement inverse.
Invité a écrit : 24 janv. 2023, 01:39 Mais disons que moins de 20% des gens trouvent la bonne réponse.
Alors ChatGPT est humain ;o)
M. Gingras fait également remarquer que « les prédictions [produites par les méthodes de l’IA] ne marchent jamais à 100 %. Elles stagnent en général à 80 %. Elles sont fausses dans 20 % des cas. Il y a donc une incertitude ».

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#144

Message par Invité » 24 janv. 2023, 03:16

Invité a écrit : 24 janv. 2023, 01:39 Sa réponse est fausse.

Pour couper un billot en 3 parties égales, ça prend 2 traits de scie. Et 2 traits de scie en 6 minutes veut dire 3 minutes par trait de scie.

Pour couper un billot en 12 parties égales, ça prend 11 traits de scie. La réponse sera dont de 11 traits de scie X 3 minutes/trait de scie = 33 minutes.
Mais si on lui donne un indice, il donne la bonne réponse (bref comme on doit le faire pour la majorité des humains).

Q: En tenant compte que le nombre de trait de scie est 1 de moins que le nombre de morceaux, quelle serait votre nouvelle réponse ?

ChatGPT:
Si l'on tient compte du fait que le nombre de traits de scie est 1 de moins que le nombre de morceaux souhaités, pour couper un billot en 12 morceaux égaux, il faudrait 11 traits de scie. En utilisant la même cadence de 3 minutes par trait de scie, il faudrait donc 11 traits de scie x 3 minutes/trait de scie = 33 minutes pour couper un billot en 12 morceaux égaux.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#145

Message par juliens » 24 janv. 2023, 03:25

Invité a écrit : 24 janv. 2023, 03:16 ChatGPT:
Si l'on tient compte du fait que le nombre de traits de scie est 1 de moins que le nombre de morceaux souhaités, pour couper un billot en 12 morceaux égaux, il faudrait 11 traits de scie. En utilisant la même cadence de 3 minutes par trait de scie, il faudrait donc 11 traits de scie x 3 minutes/trait de scie = 33 minutes pour couper un billot en 12 morceaux égaux.
Très intéressant. C'est justement mon questionnement sur sa capacité à analyser le langage. Je me demande quel est sa priorité de développement et est-ce un mur? De toute évidence nos questions doivent être plutôt courtes et relativement précises, du moins pour le moment.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#146

Message par Invité » 24 janv. 2023, 04:33

Dominique18 a écrit : 23 janv. 2023, 07:17 Autre réflexion...
En ce sens, l'IA est différent, est autre chose.

[...]

Un être humain est l'un des produits de l'évolution du vivant, pas l'IA qui se situe dans un autre contexte. On ne peut pas comparer ce qui est difficilement comparable. Ce consat ne fait pas référence à des notions d'ordre philosophique mais à l'état actuel des connaissances complexes relatives au vivant (cf. la question des niveaux d'organisation : un être vivant n'est rien sans les autres, neurobiologiquement, neurophysiologiquement.. Une IA n'en est pas à ce stade).

Une IA sert à faire... autre chose.
Vous défoncez des portes ouvertes. :a4:
Dominique18 a écrit : 23 janv. 2023, 07:17 Oui et non.
Il associe différemment, avec une originalité propre, en quelque sorte. Il n'est pas question de supériorité, de domination, ces termes sont trop suspects idéologiquement pour être recevables.
Si le verbe « dominer » vous dérange, allons-y alors avec « surpasser ».

Il ne surpasse pas l'humain seulement dans l'optique des gains au Go et aux échecs mais aussi par sa créativité dans ces jeux qui se compare favorablement à l'humain et elle est là la « révolution ». Et de plus en plus, on voit sa créativité se démarquer dans d'autres domaines artistiques.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Dominique18
Messages : 10156
Inscription : 06 oct. 2020, 12:27

Re: ChatGPT

#147

Message par Dominique18 » 24 janv. 2023, 07:20

@ Invité

J'ai parfaitement conscience de ne pas faire preuve de grande originalité. J'essaie de recontextualiser.
Il me semble avoir tenté de cibler quelques problématiques dont celle des possibilités, insuffisances, particularités,... du cerveau humain.

Le cerveau humain, dans sa globalité, est un type d'expression du vivant. Le plus important réside dans les interactions entre le vivant et son environnement.
L'IA, aussi sophistiquée soit-elle, s'exprime dans une autre dimension. Par la suite, qu'en sera-t-il ? Je n'en sais rien, et, à mon grand dam, il y a longtemps que je serai parti les pieds devant, sans avoir pu connaître les suites de l'aventure.

Les performances observées, soit, mais quid des compétences, et surtout, par rapport à quels niveaux d'organisation considérés ?
C'est le genre de discussion où il faut définir un cadre, sinon nous nous égarons ou nous tournons en rond. Autant éviter l'absurde.
Quant à la créativité d'une machine versus celle humaine... C'est faire abstraction du fonctionnement intrinsèque du vivant, des particularités du fonctionnement de l'être humain.

Le propre d'un organisme vivant, c'est d'abord sa survie afin de pouvoir rester en vie. Son programme répond à standards simples : s'alimenter, se reproduire. Ce qui passe par des comportements au cours de son existence, de fuite, de lutte, d'inhibition de l'action. Comme il est doté d'un cortex associatif, par rapport aux autres espèces, il peut imaginer, créer. Fuir en imaginant, en créant.

Il y a également deux circuits fondamentaux dans "l'équipement" des espèces : celui de la récompense, et celui de la punition, ce qui passe par une alchimie neurophysiologique interne et rajoute à la complexité.

Je ne me positionne ni pour une défense du vivant, ni pour celle d'une technologie. J'observe et j'essaie de comprendre avec les moyens dont je dispose.
L'humain, confronté à l'IA, peut servir de référence, de mode de comparaison, à condition d'observer des garde-fous et d'introduire des limites. C'est pour cette raison que j'ai traité du langage.

Il arrive un moment où les modes comparatifs ne peuvent plus être suffisamment opérants, parce qu'il s'agit de paradigmes autres, qui peuvent présenter des similitudes, mais globalement, dans leurs expressions, ce sont des domaines séparés.

Que l'être humain soit quelque peu désemparé par ses créations, à ce niveau, est indéniable.
Il ne dispose pas d'une puissance de calcul équivalente lui permettant de développer des capacités d'adaptation face à un problème donné. Mais, dans certains domaines, il dispose encore de quelques atouts, parce que c'est un organisme vivant, et que l'IA est une création technologique. Après, c'est une toute autre histoire... qui ne sera pas sans conséquences sociales et sociétales.

En l'état actuel des connaissances, le constat est que l' IA associe différemment, avec plus d'efficacité, voire d'originalité, qui reste précisément à définir, dans certaines situations spécifiques, c'est à dire délimitées par un cadre: jeu d'échecs, jeu de go,... Si nous nous plaçons, à ce titre dans une logique de compétition, la technologie va supplanter assurément le participant humain.
Pour d'autres situations, nous en sommes encore à des spéculations (en 2023). La technologie progressant... à suivre...

Ce qui serait intéressant, sur un mode expérimental, plus scientifique, avec un protocole, ce serait de disposer de plusieurs entités distinctes, sans possibilités de communication entre elles, équipées identiquement, et d'étudier leurs réactions quant aux situations proposées.
Manifesteraient-elles des réponses différentes ou celles-ci resteraient-elles identiques ?

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#148

Message par juliens » 24 janv. 2023, 16:38

J'ai hâte de voir l'application de chatGPT en éducation par exemple. Aider les étudiants avec la syntaxe pour apprendre à mieux exprimer leurs pensées, les approfondir. Avertir des faussetés ou mauvaises compréhensions. Signaler certains biais, etc. L'avenir de chatGPT en éducation pourrait être révolutionnaire.

Maintenant la peur du copier-coller en éducation. À ce jour chatGPT ne produit qu'une centaine de mots, il me semble que c'est loin d'être suffisant pour la majorité des travaux. Je ne comprends pas quelque chose?

Et qui dire de l'investissement de multimilliards de Microsoft dans openAI propriétaire de chatGPT?
https://openai.com/blog/openai-and-micr ... rtnership/

Et l'arrivé de: https://gptzero.me/ pour contrer le "plagiat"?

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#149

Message par Invité » 24 janv. 2023, 17:53

Dominique18 a écrit : 24 janv. 2023, 07:20 @ Invité
Ce qui serait intéressant, sur un mode expérimental, plus scientifique, avec un protocole, ce serait de disposer de plusieurs entités distinctes, sans possibilités de communication entre elles, équipées identiquement, et d'étudier leurs réactions quant aux situations proposées.
Manifesteraient-elles des réponses différentes ou celles-ci resteraient-elles identiques ?
Si ces « entités » (que j'interprète comme des IA) ne donnaient pas des réponses compatibles au plan factuel, on aurait un gros problème et on pourrait conclure que l'entraînement a échoué. Au plan « créativité » (non factuel), on pourrait, je crois, voir une bonne variabilité.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
PhD Smith
Messages : 5024
Inscription : 04 août 2011, 23:23

Re: ChatGPT

#150

Message par PhD Smith » 24 janv. 2023, 17:54

Un autre avis du vulgarisateur YT "Science4all": https://youtu.be/QprkRP-Dylo

Il défend un modèle opensource "Tournesol": https://tournesol.app/
Imagepraedicator veridicus, inquisitor intrepidus, doctor egregiusImage

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : jean7