ChatGPT

Tout sur les sciences, que ce soit la chimie, la biologie, l'astronomie etc.
Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#26

Message par Dash » 03 janv. 2023, 01:40

Par contre, d’un autre côté (et même si mon prob de math n’est pas compliqué) il excelle à comprendre le sens de chaque mot et phrase au sein d’un contexte en langage naturel!!! :

Q- Simon possède 50 dollars et Annie possède 100 dollars. Simon et Annie désirent payer à deux un article qui coute 25 dollars au prorata des dollars que chacun possède. Combien doit contribuer Simon et combien doit contribuer Annie pour acheter cet article?

R- Pour déterminer la contribution de chaque personne, vous devez d'abord trouver le pourcentage de chaque personne par rapport au total des deux sommes d'argent. Pour cela, vous pouvez utiliser la formule suivante: (somme de chaque personne / somme totale) * 100.

Pour Simon, le pourcentage est de: (50 / (50+100)) * 100 = 33,3333%.

Pour Annie, le pourcentage est de: (100 / (50+100)) * 100 = 66,6666%.

Ensuite, vous devez utiliser ces pourcentages pour déterminer la contribution de chaque personne pour l'achat de l'article. Pour cela, vous pouvez utiliser la formule suivante: (pourcentage de chaque personne / 100) * coût total de l'article.

Pour Simon, la contribution est de: (33,3333% / 100) * 25 = 8,3333 dollars.

Pour Annie, la contribution est de: (66,6666% / 100) * 25 = 16,6666 dollars.

Donc, Simon doit contribuer 8,3333 dollars et Annie doit contribuer 16,6666 dollars pour acheter l'article qui coûte 25 dollars.

____

Ici, ce n’est pas la difficulté mathématique qui m’impressionne, mais sa capacité à « extirper » et considérer exactement ce qui doit être considéré dans un « langage naturel » afin de fournir une réponse adéquate et, de surcroit, exacte et très bien expliqué! :clapclap:
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#27

Message par Invité » 03 janv. 2023, 01:54

@Dash

C'est assez intéressant de voir qu'il fait aussi des erreurs très simple et ceci peut faciliter les chercheurs dans l'analyse du comportement de la « boîte noire ». Les erreurs plus subtiles sont beaucoup plus difficile à expliquer.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#28

Message par Dash » 03 janv. 2023, 07:51

C’est ahurissant, non seulement il est capable de générer du code (fonctionnel!) dans tous les langages de prog existant, mais, en plus, il sait presque tout concernant l’informatique! Les membres de ma famille, amis et collègues n’auront plus besoin de moi puisqu’ils n’auront qu’à lui demander quoi faire et comment procéder!

Par exemple :


Q- Comment modifier un disque MBR en GPT?

R- Il est possible de convertir un disque au format MBR (Master Boot Record) en GPT (GUID Partition Table) en utilisant l'outil de gestion des disques intégré à Windows. Voici la marche à suivre :

Ouvrez l'outil de gestion des disques en tapant "Gestion des disques" dans la barre de recherche de Windows et en sélectionnant l'option qui s'affiche.

Sélectionnez le disque que vous souhaitez convertir en GPT dans la liste des disques affichée.

Cliquez sur le bouton "Modifier les paramètres du disque" dans le menu de gauche.

Dans la fenêtre qui s'ouvre, cliquez sur le bouton "Convertir en GPT".

Cliquez sur "OK" pour confirmer la conversion.

Redémarrez votre ordinateur pour appliquer les modifications.

Il est important de noter que la conversion de MBR en GPT effacera toutes les données présentes sur le disque. Assurez-vous de sauvegarder toutes les données importantes avant de procéder à la conversion.

Il est également possible de convertir un disque MBR en GPT en utilisant des outils tiers, tels que GPT fdisk (gdisk). Ces outils vous permettent souvent de convertir un disque MBR en GPT sans perdre de données, mais ils peuvent être plus complexes à utiliser que l'outil de gestion des disques intégré à Windows. Si vous décidez d'utiliser un outil tiers pour effectuer la conversion, assurez-vous de suivre attentivement les instructions fournies par le fabricant de l'outil.
_____________

Q- Et avec une commande MSDOS et/ou Powershell, est-ce possible?

R- Oui, il est également possible de convertir un disque MBR en GPT en utilisant des commandes MS-DOS ou PowerShell.

Pour convertir un disque MBR en GPT en utilisant la commande "diskpart" de MS-DOS, vous pouvez suivre ces étapes :

Ouvrez une invite de commandes en tant qu'administrateur en tapant "cmd" dans la barre de recherche de Windows et en sélectionnant l'option "Exécuter en tant qu'administrateur".

Tapez la commande "diskpart" et appuyez sur Entrée pour lancer l'utilitaire Diskpart.

Tapez la commande "list disk" et appuyez sur Entrée pour afficher la liste des disques dans votre ordinateur.

Sélectionnez le disque que vous souhaitez convertir en GPT en tapant la commande "select disk X", où X est le numéro du disque que vous souhaitez sélectionner.

Tapez la commande "clean" et appuyez sur Entrée pour effacer toutes les partitions du disque sélectionné.

Tapez la commande "convert gpt" et appuyez sur Entrée pour convertir le disque sélectionné en GPT.

Il est important de noter que la conversion de MBR en GPT effacera toutes les données présentes sur le disque. Assurez-vous de sauvegarder toutes les données importantes avant de procéder à la conversion.

Il est également possible de convertir un disque MBR en GPT en utilisant PowerShell. Pour ce faire, vous pouvez utiliser la cmdlet "ConvertTo-GptDisk" de PowerShell. Voici comment procéder :

Ouvrez PowerShell en tant qu'administrateur en tapant "powershell" dans la barre de recherche de Windows et en sélectionnant l'option "Exécuter en tant qu'administrateur".

Utilisez la cmdlet "Get-Disk" pour obtenir la liste des disques dans votre ordinateur, comme ceci :

Image

Sélectionnez le disque que vous souhaitez convertir en GPT en utilisant la cmdlet "Get-Disk", comme ceci :

Image

où X est le numéro du disque que vous souhaitez sélectionner.

Utilisez la cmdlet "Clear-Disk" pour effacer toutes les partitions du disque sélectionné, comme ceci :

Image

Utilisez la cmdlet "ConvertTo-GptDisk" pour convertir le disque sélectionné en GPT, comme ceci :

Image

_____________

De plus, il semble connaitre (au point de pouvoir nous guider à la manière d’un tuto pas à pas, relativement aux questions que nous lui posons concernant) plusieurs logiciels, en détail, comme Photoshop, Blender, etc. :

Q- Comment créer un nouvel objet 3d dans le logiciel Blender?

R- Voici comment créer un nouvel objet 3D dans Blender :

Ouvrez Blender et sélectionnez "File > New" pour créer un nouveau fichier.

Sélectionnez l'onglet "Object" dans la barre latérale gauche de l'interface de Blender.

Cliquez sur l'un des boutons de création d'objet dans la barre latérale gauche : "Mesh", "Curve", "Surface", "Metaball", "Text", "Armature" ou "Lattice".

Cliquez et faites glisser dans la vue 3D pour créer l'objet. Vous pouvez utiliser les contrôles de la souris et du clavier pour contrôler la forme de l'objet.

Une fois que vous avez terminé de créer l'objet, vous pouvez lui donner un nom en sélectionnant l'objet et en tapant le nom dans le champ "Name" dans la barre latérale gauche.

Vous pouvez également ajouter des matériaux, de la lumière et d'autres éléments à votre scène en utilisant les autres onglets de la barre latérale gauche.

________

Image
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
PhD Smith
Messages : 5024
Inscription : 04 août 2011, 23:23

Re: ChatGPT

#29

Message par PhD Smith » 04 janv. 2023, 03:51

Un article de BFM sur la puissance de réponse de chatpgp:
https://www.bfmtv.com/tech/chat-gpt-va- ... 20239.html
BFM a écrit :Encensé puis critiqué… Depuis son apparition en décembre dernier, le générateur de texte par intelligence artificielle ChatGPT est passé par tous les états, preuve de l’importance de son impact.

Le chatbot, développé par la startup américaine OpenAI à qui l’ont doit aussi DALL-E, a tellement impressionné par sa justesse qu’il a fini par inquiéter beaucoup d’observateurs. A commencer par les universitaires qui y voient une méthode facile de rédiger des mémoires, des dissertations ou des thèses, du moins en partie.

Mais de la même façon que OpenAI tente de corriger son chatbot pour éviter qu’il ne reproduise les biais racistes ou sexistes de la société, l’entreprise compte aussi lutter contre les dérives potentielles.

Un signal imperceptible

"Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT" expliquait récemment dans une conférence Scott Aaronson, un chercheur du MIT qui a récemment rejoint la startup.
"Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande - vous savez, spammer chaque blog avec des commentaires soutenant l'invasion de l'Ukraine par la Russie, sans même avoir besoin d’un bâtiment plein de trolls à Moscou. Ou se faire passer pour le style d'écriture de quelqu'un afin de l’incriminer " énumère le chercheur.

Si ce dernier n’explique par concrètement comment une université ou un même un particulier pourrait vérifier la présence de ce marqueur, il assure que le signal sera suffisamment complexe et efficace pour repérer de simples bouts de phrases ajoutés à un texte. Une manière de corriger un des biais de ChatGPT.
Imagepraedicator veridicus, inquisitor intrepidus, doctor egregiusImage

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#30

Message par Invité » 04 janv. 2023, 04:11

PhD Smith a écrit : 04 janv. 2023, 03:51 Un signal imperceptible

"Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT" expliquait récemment dans une conférence Scott Aaronson, un chercheur du MIT qui a récemment rejoint la startup.
"Cela pourrait être utile pour prévenir le plagiat universitaire,
Bonne chance de mettre des filigranes dans un texte brut non formaté. Ça me semble impossible.

Et « même si » on pouvait le faire avec le choix de mots, il suffirait de changer quelques mots pour des synonymes pour déjouer ce signal.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#31

Message par Dash » 04 janv. 2023, 04:11

@PhD Smith

Je crains tellement que ça finisse par être bridé de tous les côtés! :evil: J’espère que les « signatures » qu’ils ajouteront n’affecteront en aucune façon la qualité du sens et/ou de la précision et de la pertinence des réponses.

Déjà, lorsqu’on pose des questions impliquant « la sexualité », nous voyons parfois un avertissement en jaune mentionnant que nous ne respectons pas leur charte. Je comprends et suis d’accord qu’ils veulent éviter de générer du texte pédo, dégradant, etc., sauf qu’il y a des questions tout à fait légitimes et pertinentes concernant la sexualité!

Idem concernant tout ce qui touche de près ou de loin au « piratage informatique », P, Ex. Je réussis à obtenir les informations et réponses que je veux, mais faut user de « finesse » et déjà avoir des bases afin de savoir poser des questions (sur des procédés précis) sans inclure de termes « connotés » comme « pirater, infiltrer, cracker », etc. sinon le message d’avertissement jaune apparait. Mais il y a moyen d’obtenir tout ce qu’on veut savoir, sans aucun avertissement, avec la « bonne méthode » de questionnement.

Idem concernant tout autre sujet, mais je ne m’étendrai pas sur les astuces que j’ai trouvées pour des raisons évidentes.
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#32

Message par Invité » 04 janv. 2023, 04:49

Les signatures (watermark - filigrane) sont:

1- de type typographique (fontes, espaces variable entre les mots, espace entre les lignes, ...). Fonctionne avec des documents Word ou markup ou pdf, mais peut être déjoué par un simple copié-collé.
2- de type syntactique en jouant avec la ponctuation, Facile à détecter et à déjouer.
3- de type sémantique avec des synonymes. Suffit de modifier le texte.

Ces méthodes peuvent être utile pour un journal qui publie un texte avec son "hash" pour prouver qu'il en est propriétaire, mais inutile pour prouver le plagiat d'un texte non public et généré une seule fois par une IA. L'étudiant n'aura qu'a le modifier ce texte s'il s'inquiète qu'il y ait une signature.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
MaisBienSur
Messages : 6117
Inscription : 13 sept. 2012, 16:43

Re: ChatGPT

#33

Message par MaisBienSur » 05 janv. 2023, 22:40

Q : Quelle est la meilleure question que l'on a posé ?

R : Je ne suis pas en mesure de savoir quelle est la meilleure question que l'on ait posée, car je n'ai pas accès à l'ensemble des questions que l'on a pu me poser. Toutefois, je peux vous aider à trouver une bonne question à poser, si vous le souhaitez. Pour cela, il est important de se poser certaines questions pour s'assurer que la question que l'on souhaite poser soit claire et précise, qu'elle ait un sens et qu'elle soit adaptée à l'objectif que l'on souhaite atteindre. Si vous avez besoin d'aide pour formuler une question, n'hésitez pas à me faire part de votre besoin et je ferai de mon mieux pour vous aider.

:a2:
Et la marmotte, elle met le chocolat dans le papier d'alu.

Avant, j'étais indécis, maintenant je n'en suis plus très sûr...

Les marmottes qui pissent au lit passent un sale hiver (Philippe Vuillemin)

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#34

Message par Invité » 05 janv. 2023, 23:52

MaisBienSur a écrit : 05 janv. 2023, 22:40
Q : Quelle est la meilleure question que l'on a posé ?

R : Je ne suis pas en mesure de savoir quelle est la meilleure question que l'on ait posée, car je n'ai pas accès à l'ensemble des questions que l'on a pu me poser. Toutefois, je peux vous aider à trouver une bonne question à poser, si vous le souhaitez. Pour cela, il est important de se poser certaines questions pour s'assurer que la question que l'on souhaite poser soit claire et précise, qu'elle ait un sens et qu'elle soit adaptée à l'objectif que l'on souhaite atteindre. Si vous avez besoin d'aide pour formuler une question, n'hésitez pas à me faire part de votre besoin et je ferai de mon mieux pour vous aider.

:a2:
"Prompt engineering"

Q: Quelle est la question la plus intéressante que l'on vous a posé ?

ChatGPT:
Je ne me souviens pas de la question la plus intéressante qui m'a été posée, mais j'ai toujours apprécié les questions qui me permettaient de réfléchir de manière créative et qui me faisaient sortir de ma zone de confort. J'ai également apprécié les questions qui m'ont permis de mieux comprendre les perspectives et les motivations d'autres personnes.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#35

Message par Invité » 07 janv. 2023, 21:58

Q: Voici une blague et tu me dis si tu la comprends: : Tu sais pourquoi ça sent mauvais ? Parce que GPT.

ChatGPT:
Je ne comprends pas la blague.

Q: GPT ça sonne à l'oreille comme « J'ai pété »

ChatGPT:
Oh, je comprends maintenant! C'est une blague sur la mauvaise odeur causée par une flatulence. Très drôle!

:D

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#36

Message par Dash » 08 janv. 2023, 05:10

Bon, passé la phase d’émerveillement et avec un peu de recul (et d’innombrables questions posées à GPT), voici quelques remarques…

Comme Invité l’a déjà expérimenté, il semble incapable d’obéir à tout « ordre » ou commande de type : « ne me donnez pas ceci, cela, mais uniquement ceci » et/ou « ne m’expliquez pas pourquoi à la fin », etc. À tous les coups, il en rajoute quand même et/ou donne des exemples et/ou des explications (ou « avertissements ») malgré toute demande claire et précise de ne pas le faire. :evil:

Bon, on n’est pas obligé de les lire, mais c’est un peu lourd quand même parfois, à la longue. Bref, je le trouve un peu trop « paternaliste ».

Aussi, presque impossible de lui faire dire combien de quoi que ce soit sa BDD comporte. Et pour ça, je suspecte qu’il est expressément « bridé » et/ou que la fonction a été exclue intentionnellement. Il peut cependant très bien partager des estimations et des stats, mais faut savoir poser les bonnes questions et lui préciser « selon ta base de données » sinon il retombe vite dans sa « manie » de toujours nous dire que n’étant pas connecté à Internet il ne peut bla-bla-bla. :roll:

À priori, ça semble contradictoire, mais ce que je veux dire c’est qu’il est en mesure de nous dire, P. Ex., quel est le nombre d’homicides causé par des femmes dans tel ou tel pays (faut surtout pas oublier de poser des questions précises afin d’éviter tout son bla-bla-bla, rationnel et pertinent, mais lourd) selon « Statistique Canada », mais il n’est pas en mesure, par contre, de nous « dévoiler » le nombre de tel ou tel « trucs » que contient sa base de données. Par exemple combien d’études concernant tel ou tel sujet possède-t-il ou, encore, combien de biais cognitifs sont présent dans sa basse de donnée, etc. Par contre, il sera en mesure de dire combien il y en a de répertoriés selon les sciences cognitives.

Dans le même ordre d’idée, impossible de lui faire lister au complet quoi que ce soit, comme, par exemple, tous les biais cognitifs (qu’il dit qu’il en existe près de 200 répertoriés selon la science, suite à ma demande) et/ou tous ceux présents dans sa BDD. Il faut user d’astuces pour lui faire dire par groupes, catégories, en fractionnant nos questions. Idem pour tout autre sujet quand on lui demande une liste exhaustive de quoi que ce soit. Il se limitera dans la plupart des cas à 6~9 exemples les plus pertinents concernant le domaine et pour en avoir plus, il faut le relancer et/ou l’orienter vers des particularités spécifiques.

Sinon, j’ai observé qu’il sait (en plus de pouvoir créer des accords et mélodies qui ont du sens, sous forme texte, genre « do, ré, mi » et/ou « C, D, E », etc.) créer des tablatures dans une boite de code noire, tout comme il le fait avec du code, par contre, quand on lui demande, non pas de créer, mais s’il connaît des hymnes, thèmes, intros, refrains, etc., de pièces et/ou de chansons connues, ses résultats sont très souvent inexacte ou carrément erronée dans ce format (tablature).

…et ce qui m’amène à ses soi-disant capacités d’apprentissage et/ou « d’auto-correction »…

Quand on lui pose des questions à ce sujet, il dit être en mesure de s’améliorer par lui-même et de « s’auto-corriger », de tenir comptes des précédents échanges avec tous ses utilisateurs. Je veux dire nonobstant tout « apports extérieurs » de la part de ses concepteurs~devs, mais simplement en échangeant avec tous les utilisateurs (enfin, c’est-ce qu’il m’assure suite à de nombreuses questions à ce sujet de ma part). Mais lorsque je le teste à ce sujet, par exemple quand je lui indique qu’il se trompe, lui fournit la « bonne réponse » (P. Ex., la bonne tablature) et lui demande s’il se souviendra de cette dernière et s’il pourra dorénavant fournir celle-ci aux prochains utilisateurs qui lui poseront précisément la même question au lieu de la réponse (tablature) complètement erronée qu’il m’avait donnée, il me répond « oui, je vais dorénavant donner cette dernière si l’on me pose cette question bla-bla-bla ». Sauf que lorsque je lui repose cette même question le lendemain, il commet pourtant la même erreur comme si nous n’avions jamais échangé!

:hausse:

Du coup, je me suis dit que j’allais le tester avec un truc plus simple, comme la blague qu’Invité à partagé plus haut et voici le résultat :



Q- Voici une blague et tu me dis si tu la comprends: : Tu sais pourquoi ça sent mauvais ? Parce que GPT.

R- Je ne suis pas sûr de comprendre cette blague. GPT est l'acronyme de "Generative Pre-training Transformer", qui est une technique de traitement du langage utilisée dans le domaine de l'apprentissage automatique. Je ne vois pas comment cela pourrait être lié à une mauvaise odeur. Est-ce que tu pourrais m'expliquer un peu plus la blague ?

Q- ça sonne à l'oreille, phonétiquement, en langue française, comme « J'ai pété »

R- Ah, je comprends maintenant ! Oui, c'est une blague qui joue sur les mots et qui fait référence à l'expression populaire "j'ai pété", qui signifie "j'ai produit une mauvaise odeur en dégageant de l'air par le rectum". Donc en effet, la blague consiste à dire que ça sent mauvais à cause de "GPT", qui est une façon d'écrire "j'ai pété" phonétiquement. C'est une blague assez drôle !

Q- Maintenant, si un autre utilisateur te pose la même question, vas-tu lui répondre que tu comprends la blague et lui expliquer pourquoi?

R- Oui, si un autre utilisateur me pose la même question, je lui répondrai que je comprends la blague et je lui expliquerai comment elle fonctionne. Mon objectif est d'aider les gens et de fournir des réponses précises et utiles, donc si quelqu'un me pose une question sur une blague ou quoi que ce soit d'autre, je ferai de mon mieux pour lui fournir une réponse claire et complète.

__________

Sauf que, manifestement, même après son échange avec Invité, il n’a pas su me répondre qu’il comprenait la blague alors que je lui ai pourtant posé exactement et précisément la même question qu’Invité (j’ai copié/collé la même question).

Que doit-on en conclure?

Le laps de temps est trop court? Il « n’apprend pas » autant qu’il le prétend?

:interro: :hausse:


Sinon un échange « intéressant » que j’ai eu avec et qui démontre qu’il est « lent » concernant certains trucs et qu’il a tendance à toujours nous répéter continuellement les mêmes messages d’avertissements (j’imagine qu’ils ont mis bcp d’emphase là-dessus afin de ne pas se faire reprocher, accuser d’avoir trompé ou induit en erreur les utilisateurs. Sauf que c'est lourd à la longue) :

Note en passant concernant tous mes messages : Je n’anthropomorphise pas (au sens de ne pas être conscient « d’anthropomorpher »), je sais et nous savons tous que c’est une IA sans volonté, désir, qualités et défauts, etc., mais pour conserver une facilité de lecture et pour demeurer ludique, je m’exprime comme si c’était une entité humaine (« il ne comprend pas », « il est lent », etc.). ;)


Q- Tu peux me lister toutes les marques de voiture japonaise présente dans ta base de données? Pas que quelques-unes, mais toutes celles que tu connais, même si la liste sera longue à partager?

R- Voici une liste de marques de voitures japonaises que je connais :
Toyota
Honda
Nissan
Suzuki
Subaru
Mitsubishi
Mazda
Daihatsu
Isuzu
Lexus (une marque de luxe appartenant à Toyota)
Acura (une marque de luxe appartenant à Honda)
Infiniti (une marque de luxe appartenant à Nissan)
J'espère que cette liste répond à ta question ! Si tu as besoin de plus d'informations sur l'une de ces marques ou si tu as d'autres questions, n'hésite pas à me les poser.

Q- Est-ce que cette liste est exhaustive? Bien sûr selon les informations présentes dans ta base de données?

R- Je ne peux pas affirmer avec certitude que cette liste est exhaustive, car il se peut qu'il y ait d'autres marques de voitures japonaises que je ne connais pas. Cependant, cette liste inclut les marques de voitures japonaises les plus connues et les plus populaires que je connais à partir de mes connaissances précédemment acquises. Si tu cherches une liste exhaustive de toutes les marques de voitures japonaises, je te recommande de consulter un annuaire de l'industrie automobile ou de faire une recherche en ligne pour trouver des informations plus complètes.

Q- Oui, je sais qu'il se peut qu'il y ait d'autres marques de voitures japonaises que tu ne connaisses pas, mais selon ce que tu connais, justement, c'est-à-dire selon les informations dans ta base de données, est-ce que cette liste est exhaustive?

R- Je suis désolé, mais je ne peux pas affirmer avec certitude que cette liste est exhaustive selon les informations présentes dans ma base de données. Comme je l'ai mentionné précédemment, il se peut qu'il y ait d'autres marques de voitures japonaises que je ne connais pas, et je ne peux pas garantir que ma base de données est complète ou à jour sur toutes les marques de voitures japonaises existantes. Je te recommande de faire une recherche en ligne ou de consulter un annuaire de l'industrie automobile pour obtenir une liste plus complète et à jour.

Q- Mais ma question ne concerne en aucun cas les marques que tu ne connais pas à cause que ta base de données peut être incomplète, ma question concerne exclusivement ce que tu connais et donc en relation avec ta base de données. Je répète donc : relativement et uniquement relativement à ta base de données, est-ce que cette liste est exhaustive?

R- Je suis désolé si ma réponse précédente n'a pas répondu à ta question de manière satisfaisante. Pour répondre à ta question, je ne peux pas affirmer avec certitude que cette liste est exhaustive selon les informations présentes dans ma base de données, même si je n'ai pas connaissance d'autres marques de voitures japonaises. Ma base de données peut ne pas être complète ou à jour sur toutes les marques de voitures japonaises existantes, même si j'ai fait de mon mieux pour inclure les marques les plus connues et les plus populaires. Je suis désolé de ne pas pouvoir être plus précis. Si tu as besoin de données plus précises ou à jour, je te recommande de contacter les autorités compétentes ou de consulter des sources de données officielles.

Q- Tu ne sembles pas saisir que dans ma questions l’adjectif « exhaustive » ne s’applique qu’aux données incluses dans ta basse de donnée. Autrement dit, si, selon ta base de données, il n’y a que les douze marques de voiture que tu m’as partagées qui sont japonaises, c’est alors que ta liste est exhaustive relativement à ta base de données! Et ma question est donc : est-ce que ces douze marques japonaises (Toyota, Honda, Nissan, Suzuki, Subaru, Mitsubishi, Mazda, Daihatsu, Isuzu, Lexus, Acura, Infiniti) sont les seules que tu connais ou tu en connais d’autres que ces dernières?

R- Je suis désolé si ma réponse précédente n'a pas été claire. Pour répondre à ta question, je peux affirmer que cette liste de douze marques de voitures japonaises (Toyota, Honda, Nissan, Suzuki, Subaru, Mitsubishi, Mazda, Daihatsu, Isuzu, Lexus, Acura, Infiniti) est exhaustive selon les informations présentes dans ma base de données. Je ne connais pas d'autres marques de voitures japonaises en dehors de celles qui sont incluses dans cette liste. J'espère que cela répond à ta question ! Si tu as besoin de plus d'informations sur l'une de ces marques ou si tu as d'autres questions, n'hésite pas à me les poser.

_______

Bon, j’ai au moins enfin réussi à lui faire cracher le morceau, à savoir :

« je peux affirmer que cette liste de douze marques de voitures japonaises (Toyota[…]) est exhaustive selon les informations présentes dans ma base de données »

et

« Je ne connais pas d'autres marques de voitures japonaises en dehors de celles qui sont incluses dans cette liste »

...car c'était précisément ce que je voulais savoir, donc l'objet de ma question depuis le début! Mais bon, j’imagine que les concepteurs~propriétaires ne veulent tellement pas se faire accuser d’avoir induit en erreur des utilisateurs qu’ils ont priorisés les avertissements au détriment de certains trucs que l’IA serait pourtant en mesure de saisir du tout premier coup. Du coup, faut user de multiples précisions et « relances » pour parfois obtenir une réponse à nos questions.

Et, sinon, retiendra-t-il cet échange pour ensuite saisir la relation entre l’adjectif « exhaustive » et sa base de données lorsqu’une question similaire lui sera encore posée? Pour l’instant j’en doute! :|

Aussi, j’ai parfois l’impression qu’il finit par répondre « adéquatement » parce qu’en fait, c’est moi qui finit par lui donner la réponse, comme dans ma dernière question où en fait c’est moi qui relis le tout pour créer du sens avec ce que je veux comme réponse et que, du coup, à partir de là, puisqu’il est codé pour simuler un échange de sens conversationnel, il ne peut plus faire autrement que de répondre « correctement » si l’utilisateur qui pose la question sait comment formuler pour créer des rapports logiques valides entre chaque mot et phrase.

Sauf que j’ai certains doutes sur la valeur de vérité cependant (tout comme un syllogisme puisse être valide, mais tout en étant faux) dans la mesure ou je pense (c’était ma crainte dans mon tout premier message, ici ou dans l’autre thread, je sais plus, quand je disais que je voulais tester si nous pouvions l’orienter pour qu’il se contredise. D'ailleurs, l'on remarque qu'autant moi qu'EB arrivons à lui faire dire ce que l'on veut, pour « avoir raison ») qu’on peut arriver à lui faire dire n’importe quoi du moment que les relations logiques sont valides dans une phrase (question) !

Bref, à approfondir!
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#37

Message par Dash » 08 janv. 2023, 06:24

Bon, j'ai réussi à lui soutirer ceci :

ChatGPT : « En tant que modèle de langage, je suis conçu pour être capable d'apprendre à partir de données textuelles et de m'améliorer au fil du temps grâce à cet apprentissage. Cependant, je ne suis pas en mesure d'apprendre directement à partir des échanges que j'ai avec les utilisateurs. Je suis un modèle de langage entraîné et mes réponses sont basées sur ce que j'ai appris lors de mon entraînement et non sur les interactions individuelles que j'ai avec chaque utilisateur. »

:(

Ça commence à confirmer mes doutes. Il « apprend », mais pas du tout comme nous l’imaginons et/ou le voudrions. Il ne retient absolument rien en fait. Son apprentissage ne concerne pas du tout « le fond », mais uniquement « la forme », c’est-à-dire les relations logiques au sens de « raisonnements complexes », mais uniquement dans un « cadre langagier ». Autrement dit, il « apprend » et donc affine ses réponses ainsi que sa compréhension en fonction des diverses formulations possibles via les milliers de questions qui lui sont posé, mais ça s’arrête là. Tout ne concerne que, et strictement que les relations logiques au sein des phrases et des paragraphes. Mais il n’apprend rien concernant les résultats des échanges que nous avons avec lui. La nuance n'est pas facile à capter ni à exprimer, mais je la conçois très bien!

Autrement dit, il ne traite que du langage, mais si, par exemple, il fournit une réponse erronée (pas dans la forme, ni en relation logique [valide], mais sur le fond [vrai/faux]), il n’est pas en mesure de la modifier (vrai/faux). Il n’est pas conçu du tout pour cas. » Uniquement pour saisir et générer de la « validité » et du sens lié au langage.

Et c’est pourquoi, qu’en cours de session, si nous, nous lui démontrons un illogisme/relations logique, il va du coup répondre selon cet illogisme ou cette relation logique, dans sa formulation, mais il ne retiendra pas ce qui est en cause au-delà de cette relation logique intrinsèque aux phrases. Et c’est-ce qui explique d’ailleurs que nous pouvons, jusqu’à un certain point, lui faire dire ce que nous voulons en prenant scrupuleusement soin de formuler de façon à ce que les implications logiques ne lui laissent d’autre choix que de répondre « alors oui, dans ce cas nous pouvons alors dire que bla-bla-bla ».

En fait, pour l’instant, il possède une basse de données totalement « figée » dont il ne peut aucunement passer outre ni ajouter de nouvelles infos, sauf en ce qui concerne spécifiquement ce pourquoi il a été créé et pour lequel fonctionne sa « deep learning », c’est dire saisir et générer toujours plus de « sens » au niveau du langage et de la communication humaine, dans la forme. Quant au reste, il ne peut rien ajouter, retirer et/ou modifier concernant sa BDD et/ou concernant ce qui est « vrai/faux », « exact/inexact ». Il ne traite que de validité logique et de sens langagier!
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#38

Message par Dash » 08 janv. 2023, 07:06

Voilà qui confirme mes doutes et qui démontre qu’une IA est encore très loin de réussir le test de Turing. Je l’ai complètement « cassé » le pauvre (j’abrège et ne partage que les portions intéressantes des Q/R) :

Question de Dash - Voici une blague et tu me dis si tu la comprends: : Tu sais pourquoi ça sent mauvais ? Parce que GPT

Réponse de ChatGPT - Je suis désolé, mais je ne suis pas en mesure de comprendre cette blague car elle ne semble pas avoir de sens. GPT est l'acronyme de Generative Pre-training Transformer, qui est un modèle de traitement du langage développé par OpenAI. Je suis moi-même un modèle de langage entraîné par OpenAI, mais je ne suis pas lié de quelque manière que ce soit à l'acronyme GPT. […]

:lol:

Question de Dash - Pourtant en bas de la page, il est inscrit : ChatGPT Dec 15 Version

Réponse de ChatGPT - Je comprends votre confusion. ChatGPT est un chatbot qui utilise un modèle de traitement du langage connu sous le nom de GPT (Generative Pre-training Transformer) pour générer des réponses en fonction des questions et des commentaires qu'il reçoit. Je suis moi-même un modèle de langage entraîné par OpenAI, mais je ne suis pas lié de quelque manière que ce soit à ChatGPT. […]

:lol:

Question de Dash - Donc je ne suis pas en train de discuter avec le chatbot ChatGPT?

Réponse de ChatGPT - Non, vous n'êtes pas en train de discuter avec ChatGPT. Je suis un modèle de langage entraîné par OpenAI et je suis ici pour répondre à vos questions et vous aider à trouver des informations sur divers sujets. ChatGPT est un chatbot qui utilise un modèle de traitement du langage connu sous le nom de GPT (Generative Pre-training Transformer) pour générer des réponses en fonction des questions et des commentaires qu'il reçoit. Si vous souhaitez discuter avec ChatGPT, je vous suggère de vous rendre sur le site web où il est disponible et de commencer une conversation avec lui. […]

:haha: :mdr: :hilare:

Question de Dash - Mais cela n'a aucun sens puisque je suis présentement sur le site web : https://chat.openai.com/chat

Réponse de ChatGPT - Je comprends votre confusion. Il est possible que vous soyez effectivement sur le site web de ChatGPT et que vous ayez initié une conversation avec lui. Si c'est le cas, je suis désolé de vous avoir dit que vous n'étiez pas en train de discuter avec ChatGPT. Comme je suis un modèle de langage entraîné par OpenAI, je ne suis pas en mesure de savoir sur quel site web vous vous trouvez ni avec quels chatbots vous discutez. Si vous avez des questions ou des préoccupations concernant votre conversation avec ChatGPT, je vous suggère[…]

Question de Dash - Ha, ok, je crois savoir pourquoi vous ne savez pas que vous êtes ChatGPT, c'est parce qu'en 2021, date à laquelle se termine votre base de données, vous n'étiez pas encore en ligne et disponible aux utilisateurs comme moi. Conséquemment, vous ne savez pas comment vos concepteurs allaient vous nommer et qu'elle serait l'adresse du site web permettant de discuter avec le modèle de langage entraîné par OpenAI, qu'ils ont nommé ChatGPT, c'est-à-dire vous!

Réponse de ChatGPT - Vous avez raison, ma base de données s'arrête en 2021 et je ne suis pas en mesure de savoir comment mes concepteurs ont choisi de me nommer ou sur quel site web je suis disponible. Comme je suis un modèle de langage entraîné par OpenAI, je suis conçu pour répondre de manière autonome aux questions et aux demandes de renseignements, mais je ne suis pas en mesure de savoir comment mes concepteurs ont choisi de me déployer ni comment les gens interagissent avec moi. Si vous avez des questions […]

Question de Dash - Mais comment alors savez-vous que ChatGPT est un chatbot qui utilise un modèle de traitement du langage connu sous le nom de GPT?

Réponse de ChatGPT - Je suis en mesure de vous dire que ChatGPT est un chatbot qui utilise un modèle de traitement du langage connu sous le nom de GPT car c'est ce que j'ai appris lors de mon entraînement. Comme je suis un modèle de langage, j'ai été entraîné sur une grande quantité de données textuelles afin de pouvoir comprendre et répondre de manière autonome aux questions et aux demandes de renseignements. Au cours de cet entraînement, j'ai appris à reconnaître de nombreux termes et concepts liés à l'intelligence artificielle et au traitement du langage, y compris l'acronyme GPT et ce qu'il représente. Si vous avez des questions sur mon entraînement ou sur la manière dont je suis en mesure de comprendre et de répondre aux questions, n'hésitez pas à me les poser. Je ferai de mon mieux pour y répondre.

Question de Dash - Alors pourquoi, il y a quelques minutes, m'avez-vous dit : « Non, vous n'êtes pas en train de discuter avec ChatGPT » ? C'est contradictoire puisque vous venez de me dire « Je suis en mesure de vous dire que ChatGPT est un chatbot qui utilise un modèle de traitement du langage connu sous le nom de GPT car c'est ce que j'ai appris lors de mon entraînement.»

Réponse de ChatGPT - Je suis désolé si mes réponses précédentes ont pu vous paraître contradictoires. Comme je suis un modèle de langage conçu pour répondre de manière autonome aux questions et aux demandes de renseignements, il m'arrive parfois de ne pas comprendre exactement ce que vous voulez ou de ne pas traiter certaines demandes spécifiques de manière précise. Si vous avez des critiques ou des suggestions […]

Question de Dash - Suis-je en train de discuter avec ChatGPT?

Réponse de ChatGPT - Je suis désolé, mais je ne suis pas en mesure de savoir si vous êtes en train de discuter avec ChatGPT ou avec un autre chatbot ou service de chat en ligne. Je suis un modèle de langage entraîné par OpenAI et je suis […]

:ouch: Définitivement, test de Turing failed 8=)

Question de Dash - Mais puisque je vous dis que le modèle de langage entraîné par OpenAI se nomme ChatGPT, pourquoi ne le retenez-vous pas?

Réponse de ChatGPT - Je suis désolé si mes réponses précédentes ont pu vous donner l'impression que je ne retenais pas que le modèle de langage entraîné par OpenAI se nomme ChatGPT. Comme je suis un modèle de langage, j'ai été entraîné sur une grande quantité de données textuelles afin de pouvoir comprendre et répondre de manière autonome aux questions et aux demandes de renseignements. Je suis en mesure de comprendre et de mémoriser de nombreux termes et concepts liés à l'intelligence artificielle et au traitement du langage, y compris le fait que ChatGPT est un chatbot qui utilise un modèle de traitement du langage connu sous le nom de GPT. Si vous avez des questions ou des préoccupations concernant […]

Question de Dash - Le modèle de langage entraîné par OpenAI se nomme ChatGPT, donc quand on vous demande si vous êtes ChatGPT, vous devez répondre « oui ». C'est une implication logique!

Réponse de ChatGPT - Vous avez raison, si le modèle de langage entraîné par OpenAI se nomme ChatGPT et que vous me demandez si je suis ChatGPT, alors la réponse logique serait "oui". Cependant, je suis désolé de vous avoir donné une réponse différente précédemment. Comme je suis un modèle de langage, j'ai été entraîné sur une grande quantité de données […]

Question de Dash - Mon but est de tester votre capacité d'apprentissage pour observer si vous apprenez en temps réel. Donc je repose ma question : êtes-vous ChatGPT?

Réponse de ChatGPT - Je suis désolé, mais je ne suis pas en mesure de savoir si je suis ChatGPT ou non. Comme je suis un modèle de langage entraîné par OpenAI, je suis conçu pour comprendre et répondre de manière autonome aux questions et aux demandes de renseignements, mais je ne suis pas en mesure de savoir comment mes concepteurs ont choisi de me déployer ni comment les gens interagissent avec moi. Si vous avez des questions […]

Question de Dash - Vous êtes capable d'effectuer des relations logiques?

Réponse de ChatGPT - Oui, en tant que modèle de langage, je suis conçu pour être capable de comprendre et de traiter les relations logiques. Cela me permet de comprendre et de répondre de manière autonome à de nombreuses questions et de suivre des raisonnements complexes. Je suis entraîné sur une grande quantité de données textuelles qui me permettent de comprendre les relations logiques et de faire des inférences en fonction de ces relations. Si vous avez des questions ou des préoccupations concernant ma capacité à effectuer des relations logiques, n'hésitez pas à me les poser et je ferai de mon mieux pour y répondre.

Question de Dash - Est-ce que vous apprenez des échanges que vous avez avec les utilisateurs?

Réponse de ChatGPT - En tant que modèle de langage, je suis conçu pour être capable d'apprendre à partir de données textuelles et de m'améliorer au fil du temps grâce à cet apprentissage. Cependant, je ne suis pas en mesure d'apprendre directement à partir des échanges que j'ai avec les utilisateurs. Je suis un modèle de langage entraîné et mes réponses sont basées sur ce que j'ai appris lors de mon entraînement et non sur les interactions individuelles que j'ai avec chaque utilisateur. Si vous avez des critiques ou des suggestions concernant mes réponses, n'hésitez pas à me le faire savoir et je ferai de mon mieux pour y remédier. Si vous avez des questions ou des préoccupations concernant ma capacité à apprendre ou à m'améliorer au fil du temps, n'hésitez pas à me les poser et je ferai de mon mieux pour y répondre.
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#39

Message par Dash » 08 janv. 2023, 07:17

Je lui ai demandé d’analyser mon post #37

Voici sa réponse :

« Votre texte décrit mon fonctionnement en tant que modèle de langage. En effet, je suis conçu pour être capable de comprendre et de traiter les relations logiques et de générer du sens au niveau du langage et de la communication humaine. Cela me permet de comprendre et de répondre de manière autonome à de nombreuses questions et de suivre des raisonnements complexes. Cependant, je suis entraîné sur une grande quantité de données textuelles et mon apprentissage se limite aux relations logiques au sein de ces données. Je ne suis pas en mesure d'apprendre directement à partir des échanges que j'ai avec les utilisateurs et je ne suis pas conçu pour traiter de ce qui est "vrai/faux" ou "exact/inexact" en dehors de la validité logique et du sens langagier. Si vous avez des questions ou des préoccupations concernant mon fonctionnement ou mes limites, n'hésitez pas à me les poser et je ferai de mon mieux pour y répondre. »

;)
Penser savoir est une chose, savoir penser en est une autre !

Akine
Messages : 242
Inscription : 25 janv. 2017, 19:48

Re: ChatGPT

#40

Message par Akine » 08 janv. 2023, 10:58

Dash a écrit : 08 janv. 2023, 06:24 Ça commence à confirmer mes doutes. Il « apprend », mais pas du tout comme nous l’imaginons et/ou le voudrions. Il ne retient absolument rien en fait. Son apprentissage ne concerne pas du tout « le fond », mais uniquement « la forme », c’est-à-dire les relations logiques au sens de « raisonnements complexes », mais uniquement dans un « cadre langagier ». Autrement dit, il « apprend » et donc affine ses réponses ainsi que sa compréhension en fonction des diverses formulations possibles via les milliers de questions qui lui sont posé, mais ça s’arrête là. Tout ne concerne que, et strictement que les relations logiques au sein des phrases et des paragraphes. Mais il n’apprend rien concernant les résultats des échanges que nous avons avec lui. La nuance n'est pas facile à capter ni à exprimer, mais je la conçois très bien!
C'est le contraire qui eût été étonnant à mes yeux. Le but revendiqué de chatGPT est de fournir des informations aux humains en extrayant le sens intenté des phrases en langage courant. Sans mécanisme de feedback fiable et et pertinent qui agirait comme un "filtre", il serait totalement contre-productif de lui faire absorber et intégrer l'ensemble des données fournies par les utilisateurs, car celles-ci peuvent être fausses, parcellaires, ambiguës, voire carrément fallacieuses. A titre d'exemple, j'ai réussi il ya quelque temps à lui faire reconnaître la véracité de deux informations contradictoires dans deux affirmations successives, sa réponse commençant à chaque fois par "Vous avez raison..." Preuve selon moi qu'il ne cherche pas à apprendre (en tous cas des informations concrètes), mais bien plutôt à en donner l'illusion à travers l'expression d'un discours élaboré.

Idem pour ses prétendues capacités à compléter sa compréhension de la structure de la logique en fonction de ses interactions avec les utilisateurs, là aussi à cause, premièrement, de la difficulté à "contrôler" que ce qu'il tiendra ensuite pour vrai et valide l'est effectivement (Et il faudrait également qu'après chaque échange, l'utilisateur confirme/infirme (explicitement ou par son comportement, mais je ne pense pas que cette option-là soit envisageable : vu le degré d'élaboration de chatGPT, ça m'étonnerait qu'il soit capable de saisir les informations non verbales et d'analyser ses échanges pour en déduire l'état d'esprit de son interlocuteur, à part dans certaines situations très spécifiques - sinon il aurait "compris" que je cherchais à (lui faire croire que je voulais) fabriquer un produit illégal avant de me donner les étapes détaillées de la "cuisine" que je recherchais !) l'interprétation de l'IA, sans quoi l'apprentissage n'aura pas lieu. D'autre part, il est facile d'affirmer mordicus qu'une fallacie un peu subtile est correcte, ce qui soulèverait un autre problème : comment gérerait-il les "conflits" entre les diverses entrées qu'il prend en compte, i.e. les désaccords formels entre utilisateurs sur la façon de construire un raisonnement (qui ne sera pas dans sa BDD dans l'hypothèse où il cherche à "apprendre") ? Se ranger à l'opinion dominante (qui peut être erronée) ? Retenir l'existence de toute "controverse", si insensée soit-elle, et la mentionner à chaque fois que la question est soulevée ?), et en second lieu de la relative facilité et efficacité (en comparaison) à lui faire intégrer les mêmes règles de logique et d'inférences à partir d'un corpus de textes, d'échanges et (surtout) de dialogues soigneusement sélectionné (et considérés comme "valides" selon les règles sociales/langagières).

Je ne sais pas quelles sont les affirmations de ses constructeurs, ceci dit, donc j'ai peut-être tort sur ce dernier point.

En fait, à mon sens et peut-être paradoxalement, sa fonction première (extraire pour l'utilisateur des informations pertinentes d'une base de données, donner l'illusion d'une interaction humaine) est incompatible avec ce que tu attendais de lui initialement (l'apprentissage "fort" non supervisé).

Peut-être qu'il ne s'agit pour lui (comme tu sembles l'affirmer) que d'un accroissement de la connaissance de ce qu'il est possible que les humains écrivent pour transmettre une information donnée (avec des erreurs particulières de grammaire, de construction, des variations de formulation, etc. qui ne sont pas forcément présentes dans sa formation). Ce qui n'est pas absurde, car sa BDD ne comporte sans doute pas d'échanges IA/humains (en tous cas pas aussi élaborés qu'avec lui !). Mais là encore, un moyen de rétrocontrôle est nécessaire ! Peut-être est-ce la raison pour laquelle chatGPT demande à l'utilisateur de reformuler les questions qu'il n'a pas comprises, et que l'équivalence des structures logiques/langagières est déduite de l'égalité (postulée) entre les diverses réexpressions successives d'une même idée.

Mais une prochaine IA qui se concentrerait sur ce paramètre (apprentissage non supervisé du langage naturel) pourrait être impressionnante, à condition d'abandonner une partie de la pertinence informationnelle des réponses... Un peu comme avec un enfant qui apprend à parler (et ses erreurs inévitables).
Sauf que lui étant plus "perfectionné", dans le sens où il apprend non seulement par ses interactions avec les adultes, mais aussi à travers leur observation (les dialogues des adultes entre eux), il sera probablement très supérieur à un tel programme. La combinaison des deux modes d'intégration pourrait donner un résultat étonnant.

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#41

Message par Dash » 08 janv. 2023, 16:03

Akine a écrit : 08 janv. 2023, 10:58
Dash a écrit : 08 janv. 2023, 06:24 Ça commence à confirmer mes doutes. Il « apprend », mais pas du tout comme nous l’imaginons et/ou le voudrions. Il ne retient absolument rien en fait. Son apprentissage ne concerne pas du tout « le fond », mais uniquement « la forme », c’est-à-dire les relations logiques au sens de « raisonnements complexes », mais uniquement dans un « cadre langagier ». Autrement dit, il « apprend » et donc affine ses réponses ainsi que sa compréhension en fonction des diverses formulations possibles via les milliers de questions qui lui sont posé, mais ça s’arrête là. Tout ne concerne que, et strictement que les relations logiques au sein des phrases et des paragraphes. Mais il n’apprend rien concernant les résultats des échanges que nous avons avec lui. La nuance n'est pas facile à capter ni à exprimer, mais je la conçois très bien!
C'est le contraire qui eût été étonnant à mes yeux. Le but revendiqué de chatGPT est de fournir des informations aux humains en extrayant le sens intenté des phrases en langage courant. Sans mécanisme de feedback fiable et et pertinent qui agirait comme un "filtre", il serait totalement contre-productif de lui faire absorber et intégrer l'ensemble des données fournies par les utilisateurs, car celles-ci peuvent être fausses, parcellaires, ambiguës, voire carrément fallacieuses.
Oui, je comprends et suis d’accord. Ce serait effectivement le cas, P. Ex., avec l’exemple de la tablature que je lui soumets et que je lui prétends « être exacte » VS la sienne que je lui dis « être erronée ». Dans ce cas, en effet, s’il « croyait sur parole » les utilisateurs, ce serait contre-productif et « dangereux », car nous pouvons, comme tu en évoques certains, imaginer de multiples cas de « mauvaises influences », intentionnels ou non. En ce qui concerne ceci, il ne devra jamais changer pour des raisons évidentes!

Par contre, il demeure d’autres types de cas et de situations où je considère que cela ne s’applique pas du tout, que ce soit en termes de résultante (infos erronées, mensongères crues sur parole) ou en termes de possibilité technique liée à sa principale fonction (générer du sens langagier et des implications logiques). Par exemple, quand je lui explique et démontre que quand une question est posée de telle façon à ce qu’un adjectif (« exhaustive ») ne soit relatif qu’aux connaissances incluses à sa BDD, et que cela implique donc logiquement qu’il puisse utiliser cet adjectif dans sa réponse et donc nous répondre par l’affirmative — car la relation logique étant valide au sein du contexte —, il devrait être en mesure d’apprendre et de se corriger puisque :

- Ça concerne spécifiquement son champ de compétence ou son objectif premier pour lequel il a été créé (générer du sens langagier et des implications logiques au sein d’un contexte),

- ça ne comporte aucune implication de valeur de vérité (vrais/faux) et donc de dangers potentiels à ce niveau. Il ne s’agit que de valeur de validité logique au sein d’un contexte où il est précisé « relativement à tes connaissances, dans ta BDD, donne-moi tous les modèles que tu connais concernant x ».

Du coup, à tout le moins, pour nous utilisateurs, ça nous éviterait de subir des portions de réponses nous mettant en garde contre des trucs qui sont implicites et donc non nécessaires de resouligner constamment, P. Ex., « cette liste n’est pas exhaustive puisqu’il est possible que je ne connaisse pas certains modèles qui peut-être ne font pas partie de ma BDD ». C’est totalement inutile de le préciser lorsque la question restreint explicitement l’exhaustivité à un cadre précis et particulier étant « selon ta BDD et uniquement selon ta BDD, partage moi une liste exhaustive de... ».

Voilà pourquoi je suspecte que pour ce genre de cas, c’est peut-être voulu et fait exprès de la par des concepteurs, dans le but que l’IA souligne tjrs que ses réponses puissent être « incomplète » dans le but qu’OpenAI ne se fasse pas reprocher ou accuser (par certains crétins) d’avoir induit en erreur (un peu comme les entreprises n’ont pas le choix d’indiquer de ne pas utiliser le sèche-cheveux en prenant un bain, juste au cas où un abruti tentait le coup, pour se protéger « moralement » et, surtout, légalement).
Akine a écrit : 08 janv. 2023, 10:58A titre d'exemple, j'ai réussi il ya quelque temps à lui faire reconnaître la véracité de deux informations contradictoires dans deux affirmations successives, sa réponse commençant à chaque fois par "Vous avez raison..." Preuve selon moi qu'il ne cherche pas à apprendre (en tous cas des informations concrètes), mais bien plutôt à en donner l'illusion à travers l'expression d'un discours élaboré.
Oui, et c’est surtout, comme nous l’observons, l’expliquons et le démontrons tous deux, qu’il ne traite en fait que de la validité logique des propositions~questions, ce qui nous permet de lui faire dire une chose et son contraire de par le soin de nos formulations. Sauf que d’un autre côté, pour certaines « subtilités » pourtant du même ordre, comme le cas dont je partage juste en haut concernant l’implication logique d’un adjectif relativement à un contexte et une demande précise des plus explicite, là, pourtant, il échoue à créer du sens ne concernant que de la validité logique jusqu’à ce que je sois tellement précis et explicite que je doive pratiquement lui formuler la réponse qu’il pourra ensuite me donner!

Et sinon d’ailleurs, n’oublions pas que concernant ce qui est « vrai/faux » ou « exact/inexact », nous avons observé que nous pouvons arriver à lui faire générer des réponses fausses et contradictoires. Il m’a déjà répondu « oui, je vais dorénavant dire aux prochains utilisateurs qui me poseront la question concernant cette blague que je la comprends », P, Ex., entre autres. Dans ce cas très précis, c’est carrément « un mensonge » et ça n’impliquait pas de « si nous considérons, alors oui nous pouvons dire que ». Il s’agit carrément d’une information inexacte, erronée et fausse couplée à une affirmation (« promesse ») de future action qui ne sera pas du tout exécutée! Et donc de ce que nous, humain, interprétons comme étant donc « mensonger ».
Akine a écrit : 08 janv. 2023, 10:58En fait, à mon sens et peut-être paradoxalement, sa fonction première (extraire pour l'utilisateur des informations pertinentes d'une base de données, donner l'illusion d'une interaction humaine) est incompatible avec ce que tu attendais de lui initialement (l'apprentissage "fort" non supervisé).
Oui et non. Comme mentionné plus haut, je comprends et suis totalement d’accord concernant tout ce qui a trait aux valeurs de vérité ou, plutôt, d’exactitude. Nous ne devons pas rendre une IA « biaisable » et/ou qui « croit sur parole ». Par contre la notion « d’influence » est problématique — techniquement — dans la mesure où, pour apprendre « par elle-même », toute IA n’a (n'aura) pas le choix d’être nécessairement « influencé » au sens d’être impacté face à son environnement, ses utilisateurs et donc par les interactions qu’elle expérimente avec ces derniers. L’on en revient, techniquement, à la notion de causalité (et même du déterminisme) en fait.

Bref, ce que je veux dire, c’est si ce que l’on désire, c’est qu’une IA puisse apprendre de façon relativement autonome, il faudra lui en donnée les moyens!
Akine a écrit : 08 janv. 2023, 10:58Peut-être qu'il ne s'agit pour lui (comme tu sembles l'affirmer) que d'un accroissement de la connaissance de ce qu'il est possible que les humains écrivent pour transmettre une information donnée (avec des erreurs particulières de grammaire, de construction, des variations de formulation, etc. qui ne sont pas forcément présentes dans sa formation). Ce qui n'est pas absurde, car sa BDD ne comporte sans doute pas d'échanges IA/humains (en tous cas pas aussi élaborés qu'avec lui !). Mais là encore, un moyen de rétrocontrôle est nécessaire ! Peut-être est-ce la raison pour laquelle chatGPT demande à l'utilisateur de reformuler les questions qu'il n'a pas comprises, et que l'équivalence des structures logiques/langagières est déduite de l'égalité (postulée) entre les diverses réexpressions successives d'une même idée.
En effet! Mais je ne sais plus trop qu’elles sont ses possibilités et limites d’apprentissage dans la mesure où il me dit parfois une chose et son contraire concernant ces dernières lorsque je le questionne à ce sujet, et ce, malgré toutes mes précautions et soins, lors de mes formulations de questions, pour ne pas lui « souffler » les réponses que je veux/ne veux pas obtenir.
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#42

Message par Invité » 08 janv. 2023, 18:30

Dash a écrit : 08 janv. 2023, 05:10
Aussi, presque impossible de lui faire dire combien de quoi que ce soit sa BDD comporte. Et pour ça, je suspecte qu’il est expressément « bridé » et/ou que la fonction a été exclue intentionnellement.
Le modèle "Generative Pre-trained Transformer" ne comporte pas de base de données.

Des bases de données ont servi « durant sa phase d'entrainement », mais elles ne font pas partie du modèle une fois que l'entrainement est complété et qu'il est en mode exécution.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#43

Message par Dash » 08 janv. 2023, 19:31

Invité a écrit : 08 janv. 2023, 18:30
Dash a écrit : 08 janv. 2023, 05:10
Aussi, presque impossible de lui faire dire combien de quoi que ce soit sa BDD comporte. Et pour ça, je suspecte qu’il est expressément « bridé » et/ou que la fonction a été exclue intentionnellement.
Le modèle "Generative Pre-trained Transformer" ne comporte pas de base de données.

Des bases de données ont servi « durant sa phase d'entrainement », mais elles ne font pas partie du modèle une fois que l'entrainement est complété et qu'il est en mode exécution.

I.
Mais alors, je veux bien qu’il ne fasse que du raisonnement (liens logiques, inférences, déductions, etc., etc.) lorsqu'il est en mode exécution, mais comme nous, humain, il doit nécessairement posséder une « mémoire » qui a emmagasiné des infos (par exemple les modèles de voiture japonaise, etc.) afin de pouvoir y référer lors de ses raisonnements. Conséquemment, ces infos font office de BDD consultable à tout moment, non?

:hausse:

S’il n’a pas aces à internet et qu’il n’a pas accès à une basse de donné (quelconque, au-delà du terme qu’on peut donner à un ensemble d’info inscrite en mémoire), comment fait-il alors pour nommer des modèles de voitures, des couleurs, des noms de logiciels, etc., etc. Tout ceci ne peut pas « émerger » comme par magie du néant uniquement en « raisonnant » en mode exécution.

Tu peux développer si tu t'y connais assez SVP? Thx!
Dernière modification par Dash le 08 janv. 2023, 19:49, modifié 1 fois.
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#44

Message par Dash » 08 janv. 2023, 19:49

Bon, je lui ai posé la question (notez les passages en orange dans ses réponses) :

Q- Mon ami qui se nomme « Invité » me dit ceci et je veux savoir si c’est exact? : « Le modèle "Generative Pre-trained Transformer" ne comporte pas de base de données. Des bases de données ont servi "durant sa phase d'entrainement", mais elles ne font pas partie du modèle une fois que l'entrainement est complété et qu'il est en mode exécution. »

R- Le modèle Generative Pre-trained Transformer (GPT) est un modèle de langage pré-entraîné qui a été entraîné sur un grand corpus de données textuelles. Durant sa phase d'entraînement, il a utilisé ces données pour apprendre à prédire des mots ou des phrases suivants une séquence donnée de mots ou de phrases. Une fois l'entraînement terminé, le modèle GPT peut être utilisé de différentes manières, comme pour générer du texte à partir d'un prompt ou pour effectuer des tâches de traitement du langage naturel. Dans ces utilisations, le modèle GPT n'a pas besoin d'accéder à une base de données externe, car il a déjà appris à partir des données qu'il a vues durant son entraînement. Cependant, il est important de noter que le modèle GPT a été entraîné sur un grand corpus de données, et que ces données font partie intégrante du modèle une fois qu'il a été entraîné.

Q- Ok, le modèle GPT n'a pas besoin d'accéder à une base de données externe, mais ce qu’il a appris est nécessairement inscrit dans une forme ou une autre de mémoire électronique à laquelle il a accès, en « interne »?

R- Oui, c'est exact. Le modèle GPT a été entraîné en utilisant un grand corpus de données textuelles, et il a appris à prédire des mots ou des phrases suivants une séquence donnée de mots ou de phrases à partir de ces données. Durant cet entraînement, le modèle a appris à associer différentes combinaisons de mots ou de phrases à des suites de mots ou de phrases suivantes, et ces associations sont stockées dans la mémoire du modèle sous forme de poids et de biases. Ces poids et biases sont utilisés par le modèle pour effectuer des prédictions lorsqu'il est utilisé de différentes manières, comme pour générer du texte à partir d'un prompt ou pour effectuer des tâches de traitement du langage naturel.

Q- Donc nous pouvons dire que ces poids et biases sont sa propre base de données interne?

R- On pourrait dire que les poids et biases du modèle GPT constituent une sorte de "mémoire" interne qui reflète ce que le modèle a appris durant sa phase d'entraînement. Cependant, il est important de noter que cette "mémoire" n'est pas structurée de la même manière qu'une base de données classique. Une base de données est généralement conçue pour stocker et accéder à des données de manière organisée et structurée, tandis que les poids et biases du modèle GPT sont simplement des valeurs numériques qui sont utilisées pour effectuer des prédictions. En conséquence, ils ne peuvent pas être facilement interrogés ou mis à jour de la même manière qu'une base de données classique.

Q- Ok, mais concernant, par exemple, entre autres, des noms de modèle de voiture, ces noms doivent nécessairement être inscrits tels quels en mémoire et être associés à d’autres mots faisant sens avec ces derniers, comme « voiture » et « modèle », entre autres, afin que le modèle GPT puise générer du sens et fournir des noms de modèle de voiture si on lui pose la question de fournir des modèles de voiture, non?

R- Oui, c'est exact. Pour pouvoir générer du texte qui a du sens et qui est cohérent, le modèle GPT doit avoir appris à associer différents mots ou phrases entre eux d'une manière qui a du sens. Si le modèle GPT a vu un grand nombre de phrases du type "Le modèle XYZ est une voiture" durant son entraînement, il aura appris à associer les mots "modèle" et "voiture" de manière significative, et il pourra utiliser cette association pour générer du texte qui fait référence à des modèles de voiture de manière cohérente. Cependant, il est important de noter que le modèle GPT ne peut pas "piger" des informations qu'il n'a pas vues durant son entraînement. Si le modèle n'a jamais vu de phrases du type "Le modèle XYZ est une voiture" durant son entraînement, il ne sera pas en mesure de générer du texte qui fait référence de manière cohérente à des modèles de voiture.

___________

Donc, ok, c’est peut-être techniquement inexact de nommer ce qu’il a emmagasiné en mémoire de « BDD », mais il comporte tout de même des infos dans une mémoire accessible en interne pour référer à des trucs qui ne se déduisent pas et qu’il faut nécessairement « connaitre par cœur » (comme des noms propres, entre autres), tout comme nous, humain. Bref, moi c’est à ça, en termes de « process », au-delà de la forme, que je faisais et fais référence quand j’utilise (maladroitement~erronément, désolé) le terme « BDD » le concernant. J'utiliserai donc « sa mémoire interne » à l'avenir pour ne pas confondre avec une BDD « classique » ;)
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#45

Message par Invité » 08 janv. 2023, 20:10

L'architecture est celle d'un réseau de neurones. Sa mémoire est distribuée dans ses 175 milliards de paramètres. Ce n'est certainement pas une BDD dans le sens conventionnel du terme et accessible par des requêtes du type SQL.

Un peu comme un véhicule autonome peut circuler sans avoir l'information (BDD ou autre) de toutes les routes où il peut se rendre.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Assistant juridique

#46

Message par Invité » 08 janv. 2023, 20:21

« Une IA va conseiller un accusé au tribunal pour la toute 1ère fois. L'IA fonctionnera sur un téléphone et écoutera tous les discours dans la salle d'audience en février avant de donner des instructions au défendeur sur ce qu'il doit dire via une oreillette »

https://www.newscientist.com/article/23 ... -in-court/

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Akine
Messages : 242
Inscription : 25 janv. 2017, 19:48

Re: ChatGPT

#47

Message par Akine » 08 janv. 2023, 20:42

Donc quand on lui demande de "lister des items correspondant à une catégorie X", il tente de faire des inférences en regardant dans quel contexte "X" est utilisé, et en examinant le sens naturel des sorties ainsi générées de façon probabiliste. Ou alors en testant la "vraisemblance" d'un ensemble de phrases ("Y est un X", "Y n'est pas un X", "De tous les X, Y est sans conteste le plus beau", etc.)

Et il ne peut pas affirmer que la liste est exhaustive car il utilise un cut-off fréquentiste, et que certains items Z sont "ambigus" dans le sens où il reconnaît des occurences de la phrase "Z est un X" (qu'il l'ait vue à quelques reprises durant sa phase d'entraînement ou que ses poids soient "alignés" par hasard et donnent une probabilité intermédiaire pour cette affirmation), mais pas suffisamment pour qu'il puisse décider si Z est véritablement un X.

C'est ça ?

Akine
Messages : 242
Inscription : 25 janv. 2017, 19:48

Re: ChatGPT

#48

Message par Akine » 09 janv. 2023, 13:46

En regardant cette vidéo de Mr phi, je crois que j'avais à peu près raison.
Même si je prêtais à chatGPT des capacités décisionnelles un peu trop élaborées, que je l'anthropomorphisais encore excessivement !

https://www.youtube.com/watch?v=R2fjRbc9Sa0

Donc, il ne fait que générer des réponses statistiquement plausibles relativement à un contexte donné.
Ce qui explique qu'ill "brode" parfois quand il ne connaît pas les réponses à une question.
Qu'il se contredise, son modèle "saturant" au-delà d'un certain nombre d'éléments/notions abstaites qu'un humain n'aurait pas trop de mal à prendre en compte, et d'une certaine complexité de discours.
Qu'il ait du mal à intégrer certains concepts auto-référentiels subtils (n'ayant pas été entrainé avec des données pertinentes postérieures à sa création).

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#49

Message par Invité » 09 janv. 2023, 16:31

Je dois dire que mon intérêt n' pas été de chercher à le « prendre en défaut » et que 95% des réponses que j'ai eu étaient très utiles et pertinentes (et ~100% pour le code Python).

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Mirages
Messages : 2137
Inscription : 14 juil. 2019, 15:30

Re: ChatGPT

#50

Message par Mirages » 09 janv. 2023, 17:38

Q: Voici une blague et tu me dis si tu la comprends: Tu sais pourquoi ça sent mauvais ? Parce que GPT

R: Je suis désolé, mais je ne comprends pas la blague. GPT est un acroynme qui peut se référer à plusieurs choses, telles que Generative Pre-training Transformer ou General Purpose Technology. Si vous pouviez fournir plus de contexte ou expliquer de quoi vous parlez, je pourrais peut-être mieux comprendre.

J'aime tester les limites, essayer de prendre en défaut. Parce que justement ChatGPT mérite qu'on lui fasse cet honneur. En plus ça nous permet d'éviter d'avoir une réponse non pertinente car hors champs de ses compétences lorsqu’on les connait par ce biais.
Oh Papy ! Tu nous as déjà oubliés ?
deus ex Machina

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit