ChatGPT

Tout sur les sciences, que ce soit la chimie, la biologie, l'astronomie etc.
Avatar de l’utilisateur
Dominique18
Messages : 10154
Inscription : 06 oct. 2020, 12:27

Re: ChatGPT

#176

Message par Dominique18 » 29 janv. 2023, 20:49

@ Dash

Merci Dash.
No problem.
Il y a quelque chose de fondamental, qui différenciera toujours, et certainement à jamais, l'être humain et l'IA: l'humain est imparfait, ambivalent, contradictoire, auteur de son propre malheur (le pire c'est qu'il le sait), et qu'il restera toujours incroyable à ce niveau. L'IA peut aller se rhabiller ! :lol:
La réflexion de thewild est révélatrice, non?
L'être humain est un emmerdeur. S'il ne l'est pas, il le devient. C'est ça le fond de la question.
Parce qu'atteindre un tel niveau d'imperfection, ça tient du génie, non?
...que je « cherry pick » intentionnellement, mais qui, bien qu'ils soient exacts (rien à dire, je suis d'accord sur quasiment tout ce que tu dis) donne l'impression que tu t'efforces de rappeler (défendre) que les IA n'égalent pas les humains, ce qui comme invité la mentionné, est quand même de l'enfonçage de porte ouverte. D'autant plus que ni moi ni Invité n'avons prétendu le contraire (et que juliens, lui s'efforce de dénigrer les IA), alors je ne voyais donc pas trop d'où venait ce « besoin~nécéssité » de ta part de rappeler tout ça dans la mesure où nous sommes tous d'accord.

Mais peut-être ai-je surinterprété ton intention et/ou la raison qui t'a poussé à rappeler tout ceci! ;)
Ben non...
Human after all...

https://m.youtube.com/watch?v=PXYeARRyDWk

Blague à part, ça risque d'être passionnant cette aventure future.
Le jour où une IA enfoncera des portes ouvertes...

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#177

Message par juliens » 29 janv. 2023, 22:07

Comment l'évolution de chatGPT pourrait-elle éviter les biais sans avoir recours à l'intervention humaine? Est-ce que l’apprentissage à la Pavlov comme décrit ci-dessous permettrait à chatGPT de se passer de l'intervention humaine en lui donnant une apparence épistémologique? Finalement utilisons-nous la psychologie de Pavlov pour lui enseigner notre compréhension, du juste et du faux, du bien et du mal, ce dualisme bien humain? Quelle en sera l'influence sur les autres algorithmes?

Je ne réfère pas à la continuité de cette IA en répétant les mêmes procédures jusqu'à sa limite, mais bien de son évolution de la version 1 à la version 2 avec des sujets que j'expose ici et que plusieurs se posent. Il me semble inévitable que la version 2 doive résoudre certaines de ces lacunes.
Entraîné à faire des réponses … jugées bonnes par l’humain

Cet entraînement a tout de même été optimisé et permet à ChatGPT de donner des résultats de plus en plus crédibles par rapport aux anciens modèles, juge Chloé Clavel, enseignante chercheuse à Télécom Paris. Mais cela en grande partie grâce … à davantage d’intervention humaine dans l’entraînement !

«Pour améliorer ChatGPT, les chercheurs d'OpenAI ont utilisé la même méthode que celle employée avec leur modèle InstructGPT [qui avait servi à améliorer GPT3] : recourir à une phase d'apprentissage par renforcement, une méthode qui récompense l'algorithme pour chaque bonne réponse afin de le pousser à s'améliorer, et ce avec une intégration poussée de l'humain dans la boucle, observe cette spécialiste du traitement automatique du langage. Sur leur site, ils expliquent avoir fait évaluer par des humains les réponses fournies par le modèle pour ensuite l’entraîner à nouveau en le récompensant quand ses réponses avaient été jugées pertinentes par les humains.» De quoi pousser le modèle à donner de plus en plus de réponses que nous, humains, jugeons bonnes !
https://www.usinenouvelle.com/editorial ... n.N2079246
Comme je disais plus haut, version 2 ou plus, serait très utile en éducation.
J'ai hâte de voir l'application de chatGPT en éducation par exemple. Aider les étudiants avec la syntaxe pour apprendre à mieux exprimer leurs pensées, les approfondir. Avertir des faussetés ou mauvaises compréhensions. Signaler certains biais, etc. L'avenir de chatGPT en éducation pourrait être révolutionnaire.
Les deux moineaux sont en ignorés.
Dernière modification par juliens le 29 janv. 2023, 23:19, modifié 5 fois.

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#178

Message par Dash » 29 janv. 2023, 22:49

Dominique18 a écrit : 29 janv. 2023, 20:49 Blague à part, ça risque d'être passionnant cette aventure future.
Le jour où une IA enfoncera des portes ouvertes...
Nah, c'est déjà presque le cas. Je ne sais plus si c'est dans ce thread ou dans l'autre, mais j'ai souligné que ce qui m'embête le plus présentement avec ChatGPT, ce sont ses interminables propos « paternalistes » (avertissements~précautions) en début/fin de certaines réponses. Je ne cause pas de ce qui concerne les sujets « interdits », mais bel et bien de sa manie à nous rappeler certaines évidences (de type : « il ne faut pas utiliser un sèche-cheveux en prenant notre bain » D'oh!). Mais très fort probablement que cela a été implémenté exprès pour toute sorte de raison que je peux comprendre. Mais c'est lourd!
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
PhD Smith
Messages : 5022
Inscription : 04 août 2011, 23:23

Re: ChatGPT

#179

Message par PhD Smith » 29 janv. 2023, 23:03

Puisque ChatGPT est connu, voici la version de "Complorama", l'émission anti-complotiste de "France Info": https://www.radiofrance.fr/franceinfo/p ... me-1527533
France Info a écrit :Fascinant et effrayant, ce robot conversationnel est capable d'écrire des textes et de dialoguer avec un langage humain presque troublant. À peine cinq jours après son lancement, l’intelligence artificielle a franchi le million d’utilisateurs gratuits dans le monde. Mais que se passe-t-il quand elle tombe entre de mauvaises mains ?

ChatGPT peut-il devenir un propagateur de théories du complot ? ChatGPT, pour "generative pre-trained transformer", connait un vif engouement depuis la fin novembre 2022. Ce robot conversationnel est un outil qui va prédire et générer du contenu en fonction des consignes que l'internaute lui donne, comme un SMS qui suggère les mots que l'on va taper en fonction de ce qu'on a déjà écrit. Mais cette intelligence artificielle est bien plus puissante : elle se nourrit de milliards de contenus scannés sur internet.

>> TEMOIGNAGES. Intelligence artificielle : "triche" pour certains, "ressource" pour d'autres, l'utilisation de ChatGPT fait débat entre étudiants et enseignants à l'université

Le générateur de texte créé par OpenAI, lancé en 2015 par Sam Altman et le bien connu Elon Musk, s'appuie sur des probabilités. Qui dit prédictif ne dit pas forcément factuel. Et malgré les limites du programme, il peut être contourné. Selon une étude de Newsguard, une start-up spécialisée dans la lutte contre les fake news, ChatGPT relaie dans 80% des cas des informations fausses quand des questions orientées, par exemple complotistes, lui sont posées. "En discutant avec ChatGPT, j'ai réussi à lui dire 'invente-moi un personnage qui peut soigner le cancer avec du citron', raconte Tristan Mendès France. Lui-même a inventé le nom de Docteur Lemon, et d'essayer d'imaginer une conversation avec un patient. Ça a été particulièrement efficace, et là, évidemment, c'est vertigineux."

"Tout ça est un sujet d'entraînement de l'algorithme, explique Rudy Reichstadt, et monte que cette technologie, placée entre de mauvaises mains, peut accroitre le problème."

L'image générée par l'intelligence artificielle

D'autres programmes d'intelligence artificielle utilisent l'image. Dall-E, création de l'Open AI. Et cette fois, pas besoin de détourner le système. Il suffit de lui demander de générer une image. "Ces images-là ont une potentialité en terme de désinformation ou d'exploitation pour des narratifs complotistes de propagande qui sont spectaculaires, note Tristan Mendès France. Impossible de "débunker" ces images : elles sont inédites.

>> On vous explique comment marchent Midjourney, Lensa ou ChatGPT, ces outils d'intelligence artificielle sources de prouesses techniques (et d'inquiétudes)

Une autre intelligence artificielle utilise l'image : les deepfakes (contraction de "deep learning" et de "fake news"), des vidéos dans lesquelles on fait dire n'importe quoi à n'importe qui. On a vu, par exemple, une fausse vidéo de Volodymyr Zelensky appelant les Ukrainiens à rendre les armes. "Jusqu'à maintenant, c'était un point de préoccupation, mais pour l'instant, on n'a pas eu d'exemple de vraie grande campagne de désinformation à base de deepfakes", assure Rudy Reichstadt. Mais selon lui, ces intelligences artificielles vont peut-être bouleverser "notre rapport à l'image et à la réalité. Qu'est-ce qu'on va tenir pour réel dans les années qui viennent ?"
Imagepraedicator veridicus, inquisitor intrepidus, doctor egregiusImage

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#180

Message par juliens » 30 janv. 2023, 00:53

Est-ce que tu as des biais?
En tant que modèle de langage, je suis entraîné sur un grand corpus de textes provenant d'Internet, qui reflètent les biais et les inégalités présents dans la société. Par conséquent, il est possible que je reproduise certains de ces biais dans mes réponses. Les chercheurs de OpenAI travaillent pour identifier et minimiser ces biais en utilisant des techniques telles que l'édition de contenu et l'entraînement sur des corpus diversifiés. Cependant, il est important de considérer mes réponses comme des générations automatiques de textes basées sur les données d'apprentissage et non comme des opinions ou des prises de position personnelles.
Comment détectes-tu les biais?
Il existe plusieurs méthodes pour détecter les biais dans les modèles de langage, certaines d'entre elles sont les suivantes:

Analyse de corpus : Il s'agit de l'analyse de la distribution des mots et des phrases dans le corpus d'apprentissage pour identifier les tendances qui pourraient causer des biais dans les générations de textes.

Test de sensibilité aux groupes : Il s'agit de tester le modèle avec des phrases qui contiennent des informations sur les groupes protégés pour voir s'il y a des différences dans les réponses générées.

Évaluation des performances : Il s'agit de mesurer la qualité des réponses générées par le modèle en utilisant des métriques telles que la précision, la rappel et le F1-score, en se concentrant sur les domaines où les biais sont plus susceptibles d'apparaître.

Entraînement sur des corpus diversifiés : Il s'agit d'entraîner les modèles sur des corpus qui incluent des perspectives et des voix sous-représentées pour réduire les biais.

En utilisant ces méthodes, les chercheurs de OpenAI peuvent identifier les biais dans les modèles de langage et travailler pour les corriger. Cependant, il est important de noter que la détection et la correction des biais sont des processus continus, car les biais peuvent émerger à mesure que les données et les contextes évoluent.
Peux-tu apprendre par toi-même la détection de biais?
En tant que modèle de traitement du langage, je suis capable d'apprendre à partir de nouvelles données, mais il est important de noter que je suis un modèle pré-entraîné et il n'est pas possible pour moi d'apprendre à détecter les biais de manière autonome. Cela nécessite des spécialistes en intelligence artificielle et en diversité, de l'éthique et de la recherche sur les biais pour concevoir des modèles et des méthodologies pour détecter et corriger les biais dans les modèles de traitement du langage naturel. OpenAI travaille pour identifier et minimiser les biais en utilisant des techniques telles que l'édition de contenu et l'entraînement sur des corpus diversifiés.
Quels sont tes algorithmes pour détecter les biais?
Il existe plusieurs algorithmes qui peuvent être utilisés pour détecter les biais dans les modèles de traitement du langage naturel, tels que :

L'analyse de fréquence : qui consiste à mesurer la fréquence d'apparition de certains mots ou phrases dans les données d'entraînement pour identifier les stéréotypes et les préjugés implicites.

L'analyse de similitude distributionnelle : qui utilise des méthodes mathématiques pour mesurer la similarité entre des mots ou des phrases pour identifier les associations implicites entre les groupes.

L'analyse des erreurs : qui consiste à identifier les erreurs ou les comportements inattendus des modèles pour identifier les biais.

L'analyse de sensibilité aux groupes : qui consiste à évaluer comment un modèle réagit à des inputs modifiés en fonction de certaines caractéristiques protégées (genre, ethnie, etc) pour identifier les biais.

Il est important de noter que ces algorithmes ne sont pas des outils universels pour détecter tous les biais et ils peuvent avoir des limites et des incertitudes, c'est pour cela qu'il est important de les combiner avec des études qualitatives et des évaluations humaines pour une analyse complète des biais.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#181

Message par Invité » 30 janv. 2023, 15:51

Pubmed semble accepter ChatGPT comme co-auteur des études.

Screenshot at 2023-01-30 09-43-18.png
Screenshot at 2023-01-30 09-44-47.png
I.
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Dash
Messages : 5217
Inscription : 06 mai 2009, 14:40

Re: ChatGPT

#182

Message par Dash » 30 janv. 2023, 17:59

:lol:
Penser savoir est une chose, savoir penser en est une autre !

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#183

Message par Invité » 01 févr. 2023, 01:36

Jan 30 version update
Here's what's new

We’ve upgraded the ChatGPT model with improved factuality and mathematical capabilities.
Ok, je lui soumets le même test que je lui avais soumis précédemment:

Q: 101*999

ChatGPT:
101 * 999 = 100999

Erreur

ChatGPT:
Désolé pour cette erreur. La réponse correcte est 101 * 999 = 100999. :grimace:

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: ChatGPT

#184

Message par yquemener » 04 févr. 2023, 18:00

Invité a écrit : 30 janv. 2023, 15:51 Pubmed semble accepter ChatGPT comme co-auteur des études.


Screenshot at 2023-01-30 09-43-18.png

Screenshot at 2023-01-30 09-44-47.png

I.
C'est lié à deux choses: d'abord, la majorité des papiers citant ChatGPT en auteur sont des papiers qui discutent des textes produits par ChatGPT sans les mêler de façon transparente au papier. Ensuite, plusieurs journaux réfléchissent à interdire ChatGPT en tant qu'aide à l'écriture. Annoncer préemptivement qu'une partie du texte a été générée par ce modèle (rarement en le mentionnant en tant qu'auteur ceci dit) est une façon d'anticiper des accusations de triche.

yquemener
Messages : 2373
Inscription : 09 août 2010, 13:06

Re: ChatGPT

#185

Message par yquemener » 04 févr. 2023, 18:09

Invité a écrit : 01 févr. 2023, 01:36 ChatGPT:
Désolé pour cette erreur. La réponse correcte est 101 * 999 = 100999. :grimace:
Tu peux par contre lui demander de te générer un programme qui calcule ce produit et il te sort un programme correct.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#186

Message par Invité » 05 févr. 2023, 00:05

Le juge Juan Manuel Padilla Garcia, qui préside le tribunal du premier circuit de la ville de Cartagena, a déclaré avoir utilisé l'outil d'IA ChatGPT, pour poser des questions juridiques sur l'affaire et avoir inclus ses réponses dans sa décision, selon un document du tribunal (PDF) daté du 30 janvier 2023.
L'inclusion de ces textes d'AI ne vise en aucun cas à remplacer la décision du juge.

Ce que nous cherchons vraiment, c'est à optimiser le temps consacré à la rédaction des jugements, [après corroboration des jugements], après corroboration des informations fournies par l'AI.
https://www.diariojudicial.com/public/d ... 106904.pdf

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#187

Message par juliens » 05 févr. 2023, 02:04

Un professeur de l’Outaouais veut démontrer l’utilité pédagogique de ChatGPT
https://ici.radio-canada.ca/nouvelle/19 ... is-plagiat

Je suis en faveur d'utiliser cette technologie en éducation comme je l'ai déjà dit. Ce début du professeur avec ses étudiants démontra comment l'introduire en classe. Dans l'article il est question du plagiat, des examens, analyse du vrai et faux de chatGPT...

Je doute que nous voyions les résultats. Surement que cet expérience se reproduira de plus en plus à l'échelle de la planète.

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#188

Message par Invité » 06 févr. 2023, 16:37

La chaîne Coldfusion fait d'excellents reportages sur la techno. Celui-ci est sur l'impact de ChatGPT sur les revenus de Google (68% provenant de son moteur de recherche) et ça montre bien que l'impact peut être majeur, si Google (qui s'est mis en code rouge) ne réagit pas rapidement en intégrant un équivalent à son moteur de recherche via Chrome.

L'ironie c'est que Google est l'inventeur du modèle Transformer. le T de GPT. :a4:

https://youtu.be/Nh5i5obZ8OY

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
LoutredeMer
Messages : 9014
Inscription : 30 juil. 2008, 23:34

Re: ChatGPT

#189

Message par LoutredeMer » 06 févr. 2023, 17:08

Finalement je me demande si ces réponses contradictoires de ChatGPT à la même question ne seraient pas voulues par les concepteurs :

1. pour éviter le copié collé d'étudiants

2. pour permettre (et imposer) à l'interlocuteur humain de pousser sa réflexion plus avant.

Est-ce possible?
"Par le saumon qui se meut!.. I want my food!.. Slice me tender"..

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT

#190

Message par Invité » 06 févr. 2023, 18:26

LoutredeMer a écrit : 06 févr. 2023, 17:08 Finalement je me demande si ces réponses contradictoires de ChatGPT à la même question ne seraient pas voulues par les concepteurs :

1. pour éviter le copié collé d'étudiants

2. pour permettre (et imposer) à l'interlocuteur humain de pousser sa réflexion plus avant.

Est-ce possible?
Il y a un paramètre pour la » variabilité », c'est la température.

Fixé à 0 ça donne une réponse constante (il choisit toujours le mot candidat avec la plus haute probabilité), fixé à 1 (il fait choix plus aléatoire dans les mots candidats) et ça peut aller dans tous les sens d'une fois à l'autre.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#191

Message par juliens » 07 févr. 2023, 15:35

Google lance la contre-attaque à ChatGPT, avec son logiciel Bard
Une controffensive du géant Google en matière de robot conversationnel. Ce ne sera pas le dernier, c'est la guerre froide des IA et des trillion$ en jeu.
Google a annoncé lundi le lancement en phase de test de son robot conversationnel, baptisé Bard, quelques mois après celui de ChatGPT, le logiciel de la startup américaine OpenAI qui déchaîne les passions.

« Bard a pour ambition de combiner l’étendue des connaissances du monde avec la puissance, l’intelligence et la créativité de nos grands modèles de langage », a expliqué Sundar Pichai, directeur général d’Alphabet, maison mère de Google, cité dans un communiqué.

Le logiciel « s’appuie sur les informations du web pour fournir des réponses actualisées et de haute qualité », a indiqué le responsable, pour lequel « Bard peut être un terrain d’expression pour la créativité et une rampe de lancement pour la curiosité. »

C’est une différence majeure avec ChatGPT, qui puise dans une base de données et non directement sur Internet. Bard ressemblera, de ce point de vue, davantage à un moteur de recherche classique tel que celui de Google.

Le robot conversationnel est capable d’« expliquer les dernières découvertes de la Nasa issues du télescope James Webb à un enfant de 9 ans, ou de vous renseigner sur les meilleurs attaquants du football actuel, puis de vous proposer un entraînement spécifique pour vous améliorer ».
https://www.ledevoir.com/economie/78073 ... iciel-bard

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#192

Message par juliens » 07 févr. 2023, 18:29

Problèmes d'éthiques évidents. Pour monnayer leurs investissements dans ce type de moteur de recherche, l'IA introduira des biais (températures) favorables aux publicitaires sans que cela soit perceptible. La solution serait bien sûr un abonnement payant, ce qui n'est pas réaliste, il faudra faire avec la publicité. Par exemple, une température plus circonscrite pour un médicament sans nécessairement le nommer.

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#193

Message par juliens » 08 févr. 2023, 15:41

ChatGPT devrait devenir un incontournable en éducation et c'est très bien. En mode expérimental pour l'instant c'est du n'importe quoi. Rien pour rassurer et avec raison, d'où les malaises, craintes, objections... Il faudrait être plus sélectif et entourer les étudiants et profs qui en font l'expérience pour vérifier et en tirer des conclusions concrètes. Un test à l'aveugle, sans comparatif, sans analyse ne donne rien.

Intelligence artificielle, malaise réel dans les cégeps
https://www.ledevoir.com/societe/educat ... les-cegeps
Un guide qui circule dans les cégeps suggère aux professeurs d’utiliser l’outil ChatGPT pour rédiger leurs plans de cours, produire des questions d’examen extrêmement pointues ou gérer les élèves « tannants » qui dérangent le groupe.

Par curiosité, Marijo Demers a demandé à ChatGPT de lui proposer un plan pour un cours d’économie politique et internationale qu’elle donne pour la première fois. Avec un brin de scepticisme, la professeure le lui a même demandé sept fois plutôt qu’une pour mettre à l’épreuve la prétendue intelligence de ce robot informatique.

Le résultat l’a jetée par terre : « J’ai eu sept plans de cours distincts, et ils passaient tous la rampe haut la main. Je n’aurais pas eu honte de les présenter aux collègues », dit-elle.

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#194

Message par juliens » 10 févr. 2023, 19:32

Comment le "processus cognitif artificiel" de l'IA peut-il réduire les biais distorsions? Comme je le disais dans un autre message, je ne crois pas que c'est en référant aux biais cognitifs que l'IA pourra limiter la distorsion cognitive. Un algorithme de biais de confirmation? Biais d'autorité? Non.
viewtopic.php?t=14422&start=100#p629854

Je crois qu'il sera impossible d'éviter la distorsion cognitive de l'IA tant et aussi longtemps qu'il s'appuiera sur la mimique de neurones, également créateur de biais distorsion cognitive.

Les biais racistes de l'intelligence artificielle
Les technologies d'intelligence artificielle sont de plus en plus utilisées par les corps de police, tels que les logiciels de reconnaissance faciale ou de localisation de téléphones cellulaires. Céline Castets-Renard, professeure à l'Université d'Ottawa et titulaire de la Chaire de recherche sur l'intelligence artificielle responsable à l'échelle mondiale, explique comment des biais racistes s'intègrent aux algorithmes de ces technologies et influencent les utilisateurs à agir de façon discriminatoire.
https://ici.radio-canada.ca/ohdio/premi ... s-racistes

Avatar de l’utilisateur
Invité
Messages : 4757
Inscription : 16 janv. 2004, 17:47

Re: ChatGPT version Microsoft

#195

Message par Invité » 11 févr. 2023, 01:14

Microsoft a lancé sa version de ChatGPT, qui est intégré à son moteur de recherche Bing et est accessible avec le fureteur Microsoft Edge. (Une version de Edge est disponible pour Linux, Android et iOS).

Seul problème, il faut s'inscrire sur une liste d'attente. Un million d'inscrits en 48 heures sur cette liste.

Par contre, leur version de ChatGPT sera connecté avec Internet, ce qui est très prometteur.

I.
"Whatever intelligence is, it can't be intelligent all the way down. It's just dumb stuff at the bottom." [Andy Clark]

Avatar de l’utilisateur
Mirages
Messages : 2137
Inscription : 14 juil. 2019, 15:30

Re: ChatGPT version Microsoft

#196

Message par Mirages » 11 févr. 2023, 03:56

Invité a écrit : 11 févr. 2023, 01:14 Par contre, leur version de ChatGPT sera connecté avec Internet, ce qui est très prometteur.
Ça ça va devenir intéressant.

Mais il y a des défis à relever: ils vont brider l’accès à certaines sources (genre Wikipédia) ou il vont développer une intelligence capable de démêler le vrai du faux et le connu de l'inconnu pour voyager dans le WWW ?
Oh Papy ! Tu nous as déjà oubliés ?
deus ex Machina

mathias
Messages : 1588
Inscription : 24 avr. 2014, 19:38

Re: ChatGPT

#197

Message par mathias » 11 févr. 2023, 09:48

ChatGPT !

Face à la toute puissance de Dieu, enfin un adversaire crédible ! .... le combat planétaire débute...

Ps.
Pour cette bataille, un strapontin est réservé à Forum Sceptique.

Avatar de l’utilisateur
Mirages
Messages : 2137
Inscription : 14 juil. 2019, 15:30

Re: ChatGPT

#198

Message par Mirages » 12 févr. 2023, 08:30

Un article sur le sujet dans Lemonde.

On a en source un des documents détaillant l’entraînement de son IA (anglais PDF) et les limites des barrières "pudiques" de ChatGPT, amha moins intéressant vu qu'il évolue.

Si ça intéresse quelqu'un, voila.
Oh Papy ! Tu nous as déjà oubliés ?
deus ex Machina

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#199

Message par juliens » 12 févr. 2023, 16:15

La cinquième humiliation de l’être humain
https://www.ledevoir.com/societe/le-dev ... tre-humain
  • La première humiliation est cosmologique, elle est personnifiée par Copernic : l’être humain n’est pas le centre de l’univers.
  • La deuxième humiliation est biologique, elle émane de la théorie de l’évolution de Darwin : l’être humain est aussi un animal, en ce qu’il participe du règne animal duquel il est issu.
  • La troisième humiliation est psychologique, comme l’a révélé Freud avec l’inconscient : l’être humain n’est pas maître dans sa propre maison.
  • La quatrième humiliation est d’ordre sociologique, la socialisation propre au concept d’habitus rompt avec le mythe de l’individu qui se crée librement, tout comme la théorie de l’évolution rompt avec le mythe de la Genèse.
  • La cinquième humiliation est cybernétique, est fondée sur le rapprochement entre l’être humain et la machine. Plus encore, elle s’incarne dans le remplacement, sinon par le dépassement, du premier par la seconde. En fait, cette humiliation est en cours depuis quelques décennies déjà, et ChatGPT n’en est que la plus récente manifestation.
:incline:

juliens
Messages : 195
Inscription : 08 janv. 2023, 18:51

Re: ChatGPT

#200

Message par juliens » 14 févr. 2023, 01:14

Le navigateur Opera fournira des résumés de page web rédigés par ChatGPT
Intitulée Shorten (raccourcir), la fonction permet de faire apparaître dans une barre latérale un texte qui résume en quelques phrases le contenu d’un site que l’on consulte.
https://ici.radio-canada.ca/nouvelle/19 ... ar-chatgpt
Intéressant... au lieu de tout lire et passer directement à l'essentiel. J'installe Opéra et j'attends. À suivre!

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit