Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

Vous avez des questions ou des commentaires à propos du scepticisme? Écrivez ici.
Jodie
Messages : 934
Inscription : 05 févr. 2024, 01:14

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#26

Message par Jodie » 31 janv. 2026, 13:57

LoutredeMer a écrit : 31 janv. 2026, 13:20 Ben si : fin de la discussion en ce qui me concerne. Je ne discute pas avec les machines.
Tu me rappelles une autre époque, celle de la robotisation. Les gens avaient peur de perdre leur travail, d'être remplacés... On ne peut arrêter le progrès.

L'IA doit être vu comme un outil complémentaire et non comme un substitut...

Pour ce qui est de ne pas poursuivre la conversation, libre à toi.
« Dans la bibliothèque infinie du savoir, l’humain apporte le cœur, l’IA ouvre les livres. »
Petite maxime créée par l'I. A.

Jodie
Messages : 934
Inscription : 05 févr. 2024, 01:14

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#27

Message par Jodie » 31 janv. 2026, 22:02

Bonjour,


Ci-dessous : Un sondage qui en dit long et très bien structuré avec 4 496 répondants. C'est une bonne cohorte assez représentative, comparé au sondage relayé par Christian qui comptait 623 étudiants et incluait les étudiants de la fin du secondaire.

https://collimateur.uqam.ca/collimateur ... -montreal/

Je cite cette partie de l'article que j'ai particulièrement appréciée :

Usages étudiants : l’IAg comme outil d’amorce

Utiliser l’IA comme outil d’amorce, c’est l’employer pour penser, comprendre et planifier, puis faire le travail intellectuel et la rédaction finale vous-même.

Côté étudiant, l’IAg est d’abord un soutien cognitif. Les usages dominants sont :
comprendre un sujet (70 %),
résumer de textes (62 %)
et générer des idées de départ pour leurs travaux (53 %).

Les usages de production restent minoritaires :
12 % déclarent rédiger des paragraphes avec l’IAg;
6 % génèrent des textes complets.

Le copier-coller de contenu généré par l’IA dans leurs travaux est effectué « souvent » ou « très souvent » (10 % dans les cégeps, 8 % dans les universités).

Ce portrait nuancé n’élimine pas les enjeux d’intégrité, mais il contredit l’idée d’une délégation massive de l’écriture.

***
J'en profite pour citer Didier Paquelin, professeur titulaire à l'Université Laval : «L’IA doit être intégrée comme un outil d’apprentissage qui soutient la compréhension humaine, pas comme un substitut.»

Deux choses que je tiens à souligner c'est que les enseignants eux-mêmes s'en servent. A 54% dans les universités. C'est aussi une enquête que je considère comme sérieuse, je cite : Du 31 mars au 1er mai 2025, une enquête sur l’utilisation de l’IA générative (IAg) a été menée dans huit cégeps et trois universités de la région de Montréal, représentant un total de 4 496 réponses anonymes (3 714 étudiantes et étudiants et 782 membres du corps enseignant). Les questionnaires, adaptés des travaux de Didier Paquelin, professeur titulaire à l’Université Laval, ont été distribués et remplis en ligne de manière anonyme.

Ce qui manque ce sont des manuels pour les enseignants et les étudiants pour bien comprendre comment utiliser l'IA à leur avantage, soit en tant que soutien et certainement pas pour penser à leur place. La technologie est entrer très rapidement dans nos écoles, nos entreprises, nos vies privés, il s'agit d'apprendre à l'utiliser.
« Dans la bibliothèque infinie du savoir, l’humain apporte le cœur, l’IA ouvre les livres. »
Petite maxime créée par l'I. A.

Avatar de l’utilisateur
LoutredeMer
Messages : 9212
Inscription : 30 juil. 2008, 23:34

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#28

Message par LoutredeMer » 01 févr. 2026, 14:55

Bon bah voilà :)
Jodie a écrit : 31 janv. 2026, 22:02 Côté étudiant, l’IAg est d’abord un soutien cognitif. Les usages dominants sont :
Comprendre un sujet (70 %),
Donc l’analyse. Faite par l’IA et non par l’étudiant...
Résumé de textes (62 %)
Donc la synthèse. Faite par l’IA et non par l’étudiant...
et générer des idées de départ pour leurs travaux (53 %).
Donc le plan et le développement, la production. Faite par l’IA et non par l’étudiant...

Tu devrais vraiment regarder la vidéo proposée par Christian pour constater que le résultat amène un vide sidéral dans le cerveau en annihilant quasiment tout le travail à faire par l'étudiant et de ce fAit, la création des connexions, essentielle à tout apprentissage.

C'est que les enseignants eux-mêmes s'en servent.

Et ils en ont le droit car ce sont les seniors (expliqué aussi dans la vidéo). L’IA dans leur cas, sert à asseoir, conforter et améliorer leurs connaissances préalables solidement acquises et déjà présentes dans leur cerveau.

Ce qui n’est pas le cas du junior.

Ce qui manque ce sont des manuels (pour les enseignants) et les étudiants pour bien comprendre comment utiliser l'IA à leur avantage, soit en tant que soutien et certainement pas pour penser à leur place.
Effectivement. Ou mieux, une IA programmée pour l'approche pédagogique. C’est ce que fait le PAL-2. Il faut apprendre à apprendre. Essentiel pour les juniors (=étudiants). Les seniors (=profs) font ce qu’ils veulent, ils ont déjà la connaissance et le savoir-faire. Ils n’ont rien à prouver mais sont là pour former. Il n’est donc pas incompatible qu’ils aient recours à l’IA pour améliorer leur pédagogie (c’est dans l’article que tu donnes) destinée aux étudiants.

Egalement, le recours à la traduction et à une amélioration de la rédaction (utilisée parcimonieusement par les étudiants) me semble positif.

Jodie
Messages : 934
Inscription : 05 févr. 2024, 01:14

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#29

Message par Jodie » 01 févr. 2026, 22:04

LoutredeMer a écrit : 01 févr. 2026, 14:55 Bon bah voilà
Jodie a écrit : 31 janv. 2026, 16:02
Côté étudiant, l’IAg est d’abord un soutien cognitif. Les usages dominants sont :
Comprendre un sujet (70 %),
Donc l’analyse. Faite par l’IA et non par l’étudiant...
Bonjour LoutredeMer,

L'IA systématiquement va t'offrir de résumer ou d'écrire pour toi une réponse, à moins que tu places toi-même des balises. C'est ce que j'ai fait à partir de mon ordinateur personnel. A mon travail, j'ai tant à faire que j'accepte volontiers, une fois une lettre ou un texte terminé, qu'elle rende le tout plus fluide pour le lecteur ou le destinataire, tout en faisant les corrections nécessaires. Elle offre aussi d'expliquer les erreurs. Ce qui est très bien. Quand on ne prend pas le temps, on perd au change.

Je reviens sur le 70 % : comprendre un sujet. Je ne saisis pas bien ce pourcentage. Est-ce qu'on veut dire que l'étudiant va donner le sujet entier à IA pour qu'il lui explique, en fasse l'analyse, comme tu dis, ou seulement les parties qu'il ne comprend pas pour qu'il puisse poursuivre son étude ?

Un autre aspect à considérer c'est le sentiment de satisfaction que qu'on ressent quand on réussi à comprendre un sujet, lorsqu'on s'exprime bien, ou n'importe quelle autre situation qui a de la valeur pour nous, je pense que personne ne peut se passer de cette gratification que l'on se donne à soi-même, Ce qui nous donne confiance et nous fait persévérer. Pour l'avoir lu, cette forme de récompense agit très positivement sur l'organisme. Par ailleurs, je ne vois pas comment un étudiant pourrait faire analyser tous ses textes et obtenir un diplôme pour ensuite travailler dans un certain domaine. Il perdrait son emploi dans un temps record.

Je vais écouter la vidéo et te revenir, mais ca va m'en prendre beaucoup pour ne plus apprécié l'IA. Je regarde juste toutes les Alliances IA et la recherche en biologie, neurologie et le médical en général qui se forment. C'est un allié précieux pour bon nombre de chercheur.
« Dans la bibliothèque infinie du savoir, l’humain apporte le cœur, l’IA ouvre les livres. »
Petite maxime créée par l'I. A.

Avatar de l’utilisateur
Inso
Messages : 4503
Inscription : 11 mai 2013, 22:00

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#30

Message par Inso » 02 févr. 2026, 19:10

Christian a écrit : 29 janv. 2026, 03:45 Non, pas nous remplacer, nous abrutir.
[...]
32% des étudiants l'utilisent pour la rédaction partielle ou totale des travaux.
32% des étudiants l'utilisent pour résumer des textes non lus.
L’un des changements les plus profonds qu’apporte l’IA en éducation est qu’il est maintenant possible de produire un travail sans maîtriser la matière : il suffit simplement de demander au robot de le faire.
Mais la tendance à confier à l’IA le travail cognitif "affecte la capacité d’apprentissage", ce qui devrait nous inquiéter, insiste-t-il [Benoît Lacoursière, président de la Fédération nationale des enseignantes et enseignants du Québec (FNEEQ)].
https://ici.radio-canada.ca/recit-numer ... -etudiants
Un extrait de l'article qui m’interpelle (et qui va dans ton sens) :
On entre toutefois dans un territoire plus problématique et inquiétant lorsque l’étudiant "ne développe pas son esprit critique et ses propres compétences", avertit Mme Peters.
À ce titre, 31 % de répondants reconnaissent avoir déjà utilisé l’IA de manière contraire à ce qui est permis par leur institution.


C'est à dire qu'un nombre significatif d'étudiant auront leur diplôme sans avoir bien compris les enseignements... Problématique.

D'un autre coté, ça correspond un peu aux déclarations de Karp qui critique les universités et propose son propre cursus de formation : "If you did not go to school or you went to a school that's not that great or you went to Harvard or Princeton, Yale, once you come to Palantir, you're a Palantirian. No one cares about the other stuff,"
Avec une formation comprenant des orientations appuyées : So what does this alternative "Palantir degree" actually teach? The company's application says that "our most vital technologies cannot be created by those indifferent to their purpose," which is "to defend the West effectively."
source.
J'ai l'impression que ces IA commencent à vouloir se substituer aux organisation nationales.
Thunderbolt and lightning very, very frightening me (Galileo)

Avatar de l’utilisateur
Inso
Messages : 4503
Inscription : 11 mai 2013, 22:00

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#31

Message par Inso » 02 févr. 2026, 19:15

Jodie a écrit : 31 janv. 2026, 13:37 Je vais me concentrer sur ce point précis, on verra pour la suite : tu m’as comprise à l’envers.
Si tu le dis :hausse:
Abandonnons donc la forme pour rester sur le fond.

J'aurai apprécié voir des remarques sur ces points :

- On peut noter que la création de langage par les IA est un vrai sujet.
Et
Jodie a écrit : 26 janv. 2026, 19:16 Il nous revient de mettre les garde-fous nécessaires.
Tu poses là un problème sérieux. Dommage que tu n’esquisses aucune réponse.
Mais qui va mettre en place ces garde-fous ? Les société générant les IA ? Certainement pas. Le gouvernement US (en première ligne) ? Certainement pas. Qui donc ?
S'il n'y a donc pas de garde-fous, on peut raisonnablement être inquiet.

Il faut aussi prendre en compte ce que sont les sociétés qui développent les IA : en gros il y a les GAFAM et la Chine. Et aucun d'entre eux ne considère la démocratie et les droits de l'homme comme des notions dignes d’intérêt. Thiel a une vision du futur qui ressemble fortement à du technofascisme et la Chine développe les IA comme des outils de domination.
Le danger n'est pas tant la technologie des IA que les volontés de puissance de ceux qui les développent.

"Le développement rapide des technologies numériques, notamment de l’IA, a un impact significatif sur la vie sociale, économique et politique. Pourtant, bien que présentées comme des jalons de l’innovation et du progrès, ces transformations technologiques ont également introduit des mécanismes de contrôle, des formes d’organisation et des modèles idéologiques qui présentent des ressemblances frappantes avec les phénomènes fascistes historiques."
Source : Technofascism: AI, Big Tech, and the new authoritarianism (Springer 25/01/2026)

On peut accepter le fait que les IA soient des outils, ne présageant ni une dystopie ni une utopie. On vois bien l'importance technologique que peut prendre l'Ia dans le domaine médical par exemple.
Mais dans les faits, ces outils sont aux mains de personnes qui ont clairement une vision dystopique du futur. Pour eux, l'IA doit être à leur service, pas à celui de l'humanité.
Pour certains, L'IA va leur permettre de traverser les crises majeurs (climat, biodiversité, guerres, destruction de l'ordre mondial...) pour se poser en maîtres d'un monde futur avec bien moins de population. (j'en avais déjà parlé sur ce forum).
On peut commencer à le voir aux USA, ou les pontes de l'IA sont majoritairement derrière Trump et pilotent en sous main ce gouvernement à tendance fasciste. (Curtis Yarvin -> Peter Thiel -> JD Vance, ou bien Musk). On le voit par le développement important des technologies de contrôle et de surveillance, avec l'exemple de Palantir qui transforme l'ICE en une technopolice digne de 1984, ou bien de DOGE qui a permis à certains (Musk, Thiel...) de récupérer des données sensibles (santé, impôts, identités, liens politiques ou ong...) de toute la population US. Technologies qui vont aussi permettre de modifier les futures élections.
« Avec le Doge ou Palantir, on a des exemples très concrets d’une nouvelle architecture du pouvoir, un pouvoir techno-fasciste »
Jodie a écrit : 31 janv. 2026, 13:57 Tu me rappelles une autre époque, celle de la robotisation. Les gens avaient peur de perdre leur travail, d'être remplacés... On ne peut arrêter le progrès.

L'IA doit être vu comme un outil complémentaire et non comme un substitut...
Technologiquement, pourquoi pas. Mais le patron de Kuka (par exemple) n'a jamais eu le pouvoir d'influer les orientations politiques de pays entiers au détriment des populations.
Thunderbolt and lightning very, very frightening me (Galileo)

Avatar de l’utilisateur
LoutredeMer
Messages : 9212
Inscription : 30 juil. 2008, 23:34

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#32

Message par LoutredeMer » 02 févr. 2026, 21:17

Inso a écrit : 02 févr. 2026, 19:15 On le voit par le développement important des technologies de contrôle et de surveillance, avec l'exemple de Palantir qui transforme l'ICE en une technopolice digne de 1984, ou bien de DOGE qui a permis à certains (Musk, Thiel...) de récupérer des données sensibles (...)
« Avec le Doge ou Palantir, on a des exemples très concrets d’une nouvelle architecture du pouvoir, un pouvoir techno-fasciste »
Sans oublier Capgemini, boîte bien française, qui a signé fin décembre 2025 un contrat de 4,8 millions de dollars avec ICE pour le traitement d’environ 50 000 adresses par mois dans le cadre des opérations menées par l’ERO, la branche opérationnelle de l’ICE en charge des arrestations et expulsions. https://drh.ma/capgemini-et-lice-le-con ... employeur/
Des informations révélées par le média en ligne L'Observatoire des multinationales, (Nouvelle fenêtre)et reprises par l'Oeil du 20h de France 2. Capgemini, via sa filiale américaine, aide ICE à identifier et localiser des personnes étrangères. Le ministre de l'Économie Roland Lescure a appelé le groupe d'informatique français à "questionner" ses activités.
https://www.franceinfo.fr/monde/usa/pol ... 69606.html

Avatar de l’utilisateur
Dominique18
Messages : 10612
Inscription : 06 oct. 2020, 12:27

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#33

Message par Dominique18 » 03 févr. 2026, 07:54

"T’es vivant, camarade.
Ça vient d'être un délit !..."

https://www.dailymotion.com/video/x7qtshl

À force d'accélérer, la politique-fiction (celle esquissée dans le texte) est devenue réalité... il n'a pas fallu si longtemps...

"Black mirror" en vrai, et c'est terrifiant.

Avatar de l’utilisateur
Inso
Messages : 4503
Inscription : 11 mai 2013, 22:00

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#34

Message par Inso » 03 févr. 2026, 16:27

LoutredeMer a écrit : 02 févr. 2026, 21:17 ans oublier Capgemini, boîte bien française, qui a signé fin décembre 2025 un contrat de 4,8 millions de dollars avec ICE pour le traitement d’environ 50 000 adresses par mois dans le cadre des opérations menées par l’ERO, la branche opérationnelle de l’ICE en charge des arrestations et expulsions. https://drh.ma/capgemini-et-lice-le-con ... employeur/
Cap Gemini qui s'est débarrassé de la filiale concernée (enfin, revendu). Comme quoi les polémiques peuvent être utiles.

Maintenant, il y a aussi une complaisance certaine de quelques médias français et un soutien clair des extrême-droites
Ça ne choque personne d'entendre Arno Klarsfeld (enfant de déportés) proposer d'organiser de grandes rafles un peu partout en France ?

En France, avec les différentes lois "anti terroristes" et la DGSI qui vient de signer avec Palantir, tout semble prêt pour que le futur président puisse mettre en place la même chose qu'aux USA (comme le souhaitent Zemmour, Maréchal, Conquer. cf lien ci-dessus). J'ai déjà commandé mon sifflet pour 2027 :mrgreen:
Thunderbolt and lightning very, very frightening me (Galileo)

Avatar de l’utilisateur
Inso
Messages : 4503
Inscription : 11 mai 2013, 22:00

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#35

Message par Inso » 03 févr. 2026, 16:55

Le International AI Safety Report 2026 vient de sortir.

Lien du PDF (221 pages)

Résumé sur The Guardian :

1. Les capacités des modèles d’IA s’améliorent

Les systèmes d’IA améliorent rapidement leur capacité à effectuer certaines tâches d’ingénierie logicielle – leur durée doublant tous les sept mois.
Même si les systèmes d’IA avancés sont impressionnants en mathématiques, en sciences, en codage et en création d’images, ils restent enclins à faire de fausses déclarations, ou « hallucinations », et ne peuvent pas mener à bien de longs projets de manière autonome.

2. Les deepfakes s’améliorent et prolifèrent
Le rapport décrit la croissance de la pornographie deepfake comme une « préoccupation particulière », citant une étude montrant que 15 % des adultes britanniques ont vu de telles images.

3. Les entreprises d’IA ont mis en place des mesures de protection contre les risques biologiques et chimiques
es grands développeurs d’IA, dont Anthropic, ont publié des modèles dotés de mesures de sécurité renforcées après avoir été incapables d’exclure la possibilité qu’ils puissent aider les novices à créer des armes biologiques.
Les risques biologiques et chimiques posent un dilemme aux responsables politiques, ajoute le rapport, car ces mêmes capacités peuvent également accélérer la découverte de nouveaux médicaments et le diagnostic des maladies.

4. Les compagnons IA gagnent rapidement en popularité
Bengio affirme que l’utilisation de compagnons IA et l’attachement émotionnel qu’ils génèrent se sont « répandus comme une traînée de poudre » au cours de l’année écoulée. Le rapport indique qu’il existe des preuves qu’un sous-ensemble d’utilisateurs développe une dépendance émotionnelle « pathologique » à l’égard des chatbots IA.

5. L’IA n’est pas encore capable de lancer des cyberattaques totalement autonomes
Le rapport reconnaît que des cyberattaques entièrement automatisées – exécutant toutes les étapes d’une attaque – pourraient permettre aux criminels de lancer des attaques à une échelle bien plus grande. Mais cela reste difficile car les systèmes d’IA ne peuvent pas encore exécuter de tâches longues et en plusieurs étapes.
Néanmoins, Anthropic a rapporté l’année dernière que son outil de codage, Claude Code, avait été utilisé par un groupe parrainé par l’État chinois pour attaquer 30 entités à travers le monde en septembre, réalisant ainsi une « poignée d’intrusions réussies ». Selon le communiqué, 80 à 90 % des opérations impliquées dans l'attaque ont été réalisées sans intervention humaine, ce qui indique un haut degré d'autonomie.

6. Les systèmes d’IA s’améliorent pour saper la surveillance
Le rapport indique qu'au cours de l'année écoulée, les modèles ont montré une capacité plus avancée à saper les tentatives de surveillance, par exemple en trouvant des failles dans les évaluations et en reconnaissant quand elles sont testées. L'année dernière, Anthropic a publié une analyse de sécurité de son dernier modèle, Claude Sonnet 4.5, et a révélé qu'il était devenu suspect qu'il soit en cours de test.

7. L’impact sur l’emploi reste incertain
« Si les agents d’IA acquéraient la capacité d’agir avec une plus grande autonomie dans tous les domaines en seulement quelques années – en gérant de manière fiable des séquences de tâches plus longues et plus complexes dans la poursuite d’objectifs de plus haut niveau – cela accélérerait probablement la perturbation du marché du travail. »


Note : De manière surprenante ( :mrgreen: ), les USA refusent cette année de soutenir le rapport.


En complément du point 4 (de l'article the Guardian donc), je mets le paragraphe 2.3.2 du rapport qui me semble important vu les posts précédents de Christian, Loutre et Florence.

[quote]2.3.2. Risques pour l'autonomie humaine
— Les systèmes d'IA à usage général peuvent affecter l'autonomie des personnes de multiples façons.
Cela inclut les impacts sur leurs compétences cognitives (comme la pensée critique), la manière dont elles forment leurs croyances et préférences, et comment elles prennent des décisions et agissent en conséquence. Ces effets varient selon les contextes, les utilisateurs et les formes d'utilisation de l'IA.
— L'utilisation de l'IA peut modifier la manière dont les personnes s'engagent cognitivement dans des tâches, y compris la façon dont les compétences sont pratiquées et maintenues au fil du temps. Par exemple, une étude clinique a rapporté que la capacité des cliniciens à détecter des tumeurs sans IA était environ 6 % inférieure après plusieurs mois d'exposition au diagnostic assisté par IA.
— Dans certains contextes, les personnes présentent un « biais d'automatisation » en s'appuyant excessivement sur les résultats de l'IA et en minimisant les informations contradictoires. Par exemple, dans une expérience randomisée avec 2 784 participants sur une tâche d'annotation assistée par IA, les participants étaient moins susceptibles de corriger les suggestions erronées de l'IA lorsque cela nécessitait un effort supplémentaire ou lorsque les utilisateurs avaient une attitude plus favorable envers l'IA.
— Depuis la publication du rapport précédent (janvier 2025), les « compagnons IA » ont connu une croissance rapide en popularité, certaines applications atteignant des dizaines de millions d'utilisateurs. Les « compagnons IA » sont des applications basées sur l'IA conçues pour des interactions émotionnellement engageantes avec les utilisateurs. Les preuves de leurs effets psychologiques sont à un stade précoce et mitigées, mais certaines études rapportent des tendances telles qu'une augmentation de la solitude et une réduction des interactions sociales chez les utilisateurs fréquents.
— Les principaux défis pour les décideurs politiques incluent un accès limité aux données sur la façon dont les personnes utilisent les systèmes d'IA et un manque de preuves à long terme. Ces contraintes rendent difficile d'évaluer comment les interactions soutenues avec les systèmes d'IA affectent l'autonomie, ou de distinguer l'adaptation à court terme des changements plus durables dans le comportement et la prise de décision.[/quote]
Thunderbolt and lightning very, very frightening me (Galileo)

Avatar de l’utilisateur
nikola
Messages : 5194
Inscription : 19 mars 2015, 08:13

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#36

Message par nikola » 03 févr. 2026, 18:15

Quand je lis la question posée par le titre du fil, je me demande quelle soupe spiritualiste on veut me faire avaler.
L’homme descend du singe, or l’homme est fait à l’image de Dieu. Donc Dieu est King Kong.

-+- Cavanna, François -+-

jean7
Messages : 5171
Inscription : 05 mai 2015, 16:54

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#37

Message par jean7 » 04 févr. 2026, 01:20

nikola a écrit : 03 févr. 2026, 18:15 Quand je lis la question posée par le titre du fil, je me demande quelle soupe spiritualiste on veut me faire avaler.
A le relire, il me vient une autre voie de réponses :
Je connais extrêmement peu de machine qui ait effectué de taches et sur une période aussi longue que ma modeste carcasse alors que des humains qui me surpassent, j'en croise continuellement. La robustesse des êtres biologiques comparativement aux mécaniques est souvent oubliée dans ces discussion. Si on considère par ailleurs que les humains sont capables de mener des projets sur plusieurs génération, ça fait un deuxième point. Les coraux sont plus remarquables encore sur cette performance. L'entêtement biologique transforme la planète avec une puissance que nos armées de machines n'ont pas égalé. Et ce ne sont mêmes pas les humains les plus remarquables.
Le libre arbitre est à la causalité ce que le corps est à la physique

Jodie
Messages : 934
Inscription : 05 févr. 2024, 01:14

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#38

Message par Jodie » 04 févr. 2026, 13:31

jean7 a écrit : 04 févr. 2026, 01:20
A le relire, il me vient une autre voie de réponses :
Je connais extrêmement peu de machine qui ait effectué de taches et sur une période aussi longue que ma modeste carcasse alors que des humains qui me surpassent, j'en croise continuellement. La robustesse des êtres biologiques comparativement aux mécaniques est souvent oubliée dans ces discussion. Si on considère par ailleurs que les humains sont capables de mener des projets sur plusieurs génération, ça fait un deuxième point. Les coraux sont plus remarquables encore sur cette performance. L'entêtement biologique transforme la planète avec une puissance que nos armées de machines n'ont pas égalé. Et ce ne sont mêmes pas les humains les plus remarquables.
Salut Jean,

J'apprécie qu'on fasse le tour de ce sujet, il y a beaucoup à regarder. Oui, en fait selon ce que j'ai lu, effectivement, les IA actuelles ne peuvent soutenir de projet à long terme. Elles n'ont pas de mémoire ou de projet à long terme dans le temps, comme nous. Vois l'article que j'ai relayé ci-dessous.
Dernière modification par Jodie le 04 févr. 2026, 13:53, modifié 1 fois.
« Dans la bibliothèque infinie du savoir, l’humain apporte le cœur, l’IA ouvre les livres. »
Petite maxime créée par l'I. A.

Jodie
Messages : 934
Inscription : 05 févr. 2024, 01:14

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#39

Message par Jodie » 04 févr. 2026, 13:52

Inso a écrit : 03 févr. 2026, 16:55 Même si les systèmes d’IA avancés sont impressionnants en mathématiques, en sciences, en codage et en création d’images, ils restent enclins à faire de fausses déclarations, ou « hallucinations », et ne peuvent pas mener à bien de longs projets de manière autonome.
Je tiens compte de tes attentes Inso pour discuter du langage, mais mon but premier est de bien comprendre le nôtre avant d'approfondir celui des IA.

Hier, j'ai reçu une newsletter du magazine Pour la Science qui m'a permis de faire un parallèle entre la cognition humaine et le fonctionnement des modèles de langage. Cela m’aide à mieux comprendre ce que signifie le mot  halluciner  dans le rapport que tu cites et qui peut porter à confusion.

Je trouve que ce terme, pris dans son sens humain, peut ajouter à la crainte entourant les IA. Ca me rappelle des discussions sur « l’intelligence des plantes » . Un mot mal choisi peut donner l’impression que le phénomène possède des capacités semblables à celles du cerveau humain, alors que ce n’est pas le cas. Notre cerveau donne du sens à ce que nous voyons, entendons ou lisons. L’IA, de son côté, procède autrement, mais elle aussi complète des informations manquantes. Tout comme notre cerveau, elle remplit des vides. Dans les deux cas, il peut y avoir des erreurs, mais pour des raisons totalement différentes. Pour IA on devrait plutôt parler d’une erreur de prédiction.

Je cite une newsletter du magazine, mais avant une note pour modération, si le texte est trop long, veuillez m'en excuser, mais il m'apparaît important pour la conversation. Voici donc:

Que voit-on quand on lit ?
L’IA peut-elle vraiment lire comme un humain ? Une récente avancée dans le développement des modèles massifs de langage éclaire les différences entre notre expérience intime de la lecture et les limites que pose aux IA le traitement des mots.

François Lassagne
20 janvier 2026| Temps de lecture : 5 mn

Que voit-on quand on lit ?
L’IA peut-elle vraiment lire comme un humain ?

Une récente avancée dans le développement des modèles massifs de langage éclaire les différences entre notre expérience intime de la lecture et les limites que pose aux IA le traitement des mots.

François Lassagne
20 janvier 2026| Temps de lecture : 5 mn
Regards
Informatique
Intelligence artificielle
livre lecture IA
© Shutterstock/ MihaelaPavic

Vous ouvrez un roman. Devant vos yeux, des lettres, des mots, des paragraphes, des chapitres. Derrière les lettres, derrière les mots ? Faites l’exercice, interrompez la lecture, si possible alors que vous êtes plongé dans un passage palpitant, lisant un auteur qui vous donne la sensation de vous immerger dans son monde. Que voyez-vous ? Des images ? Des lieux, des personnes, des objets ? Des couleurs, des textures ? Des sensations ? Des abstractions ?

Répondre est difficile, car comme l’écrivait Peter Mendelsund en 2015, « quand nous discutons de la sensation que procure la lecture, nous sommes en réalité, déjà, en train de parler du souvenir de cette expérience. Et ce souvenir est un faux souvenir ». Peter Mendelsund est essayiste, graphiste, directeur artistique dans de prestigieuses maisons d’édition et pour le journal The Atlantic. Il s’est emparé, il y a un peu plus de dix ans, de la question : « Que voit-on quand on lit ? », qui a donné son titre à l’ouvrage. Et ses réflexions d’alors éclairent d’un jour inattendu une récente avancée dans le domaine de l’intelligence artificielle…

Avec ce livre inclassable, qui mêle réflexions personnelles, extraits d’échanges avec des chercheurs et des lecteurs et, surtout, de nombreuses illustrations, on plonge au cœur du mystère de la lecture et l’on se convainc que « les mots ne sont pas tant utiles par le sens qu’ils portent que par leur potentiel à solliciter l’expérience des lecteurs ». Prenons simplement la manière dont nous nous représentons un personnage principal. Comme l’observe avec force exemples Peter Mendelsund, les caractéristiques d’un personnage, telles que les distille un auteur au fil du texte, aident à en préciser les contours, mais pas à en faire un portrait intégral. Celui-ci sera, toujours, issu de nos souvenirs, des visages que nous connaissons. Et l’essayiste de conclure que « les auteurs opèrent une réduction du monde quand ils écrivent, et les lecteurs opèrent une autre réduction quand ils lisent. Le cerveau lui-même est construit de manière à réduire, remplacer, modéliser. Se représenter une histoire, c’est faire des réductions. Et c’est ainsi que nous produisons du sens ».

Que se passe-t-il quand une IA lit ? Le principe général de fonctionnement des modèles massifs de langage (LLM) est assez simple : il consiste à prolonger des morceaux de textes, appelés « prompts » ou « invites », de la manière jugée la plus probable par un réseau de neurones entraîné sur une grande quantité de données. L’apprentissage consiste à analyser des textes, à les découper en tokens (des mots ou des morceaux de mots), puis à mesurer la probabilité d’occurrence de chaque token T à la suite de séries de tokens {Ti}. Ainsi, lors de l’apparition de la suite {Ti} il sera possible de proposer un token T suivant (le plus probable, le plus plausible…). Dans le cadre d’un chatbot s’appuyant sur un LLM, le prompt est constitué de quelques lignes soigneusement rédigées par des ingénieurs spécialisés – et auxquelles les utilisateurs n’ont pas accès – et d’une partie de l’historique de la conversation entre l’internaute et le chatbot. Pour formuler des réponses correctes aux questions qui lui sont posées, le LLM exploite une connaissance statistique de nombreux textes liés à la requête et de ce que sont des phrases correctes dans la langue de son interlocuteur. Cela donne au robot conversationnel la capacité de créer des phrases nouvelles auxquelles nous donnons du sens, des réponses précises et cohérentes, le plus souvent bien informées, qui suggèrent la compréhension d’une multitude de sujets.

En résumé : la machine ne lit pas. La lecture par l’IA n’est pas une expérience vécue. Et l’IA ne produit pas de sens : c’est l’utilisateur qui s’en charge. Cela reste cependant très efficace, convaincant, tant que la conversation avec le robot n’excède pas une certaine limite. La « fenêtre de contexte » désigne la quantité maximale d’information textuelle qu’un modèle de langage peut prendre en compte en une seule fois pour produire une réponse. Elle inclut les messages précédents de la conversation (questions et réponses), les instructions système, et le texte de la requête courante. Pour les grands modèles récents, cette fenêtre correspond à plusieurs dizaines de milliers de tokens. Cela correspond typiquement à plusieurs dizaines de pages de texte continu, ou des conversations longues, de l’ordre de quelques dizaines de milliers de mots cumulés.

A lire aussi : IA générative : ce qui se cache derrière les modèles massifs de langage
C’est déjà beaucoup… mais les modèles actuels sont confrontés à une limite : la capacité de calcul nécessaire évoluant de manière quadratique, il est déraisonnable d’étendre la fenêtre de contexte en misant sur la seule puissance de calcul. À titre d’illustration, utiliser chatGPT pour une dizaines de requêtes textuelles, la production d’une image fixe et d’une vidéo courte équivaut, sur le plan énergétique, à faire fonctionner un four microonde pendant trois heures et demie.

Cependant, la fenêtre de contexte des IA pourrait s’agrandir, à moindre coût, en intégrant non pas des mots… mais des images. C’est ce qu’a récemment démontré l’entreprise chinoise Deepseek, avec son prototype Deepseek-OCR. La découverte de ce résultat de recherche, publié en novembre dernier, m’a fait immédiatement songer au livre de Peter Mendelsund, puisqu’il bat décidément en brèche l’illusion que les IA lisent.

En effet, l’astuce des chercheurs de Deepseek consiste à ne pas considérer le texte comme une organisation de mots, mais… comme une image. Laquelle est compressée, stockée, et utilisée ensuite par le modèle pour reconstruire le texte original, avec une efficacité bien plus grande : il suffit de 100 vision tokens (des échantillons d’image compressés) pour reconstituer environ 800 mots, et maintenir 97 % de la précision du texte initial.

A lire aussi : Modèles de langage : d’où viennent les coups de génie des IA ?
L’information portée par les mots est ainsi stockée dans les pixels. La mémoire de travail de l’IA est d’abord visuelle, plutôt que textuelle. Ce qui donne au modèle, au passage, une meilleure capacité à traiter des documents qui ne sont pas composés que de texte (tableaux, graphiques…).

Si on doutait encore, voilà qui atteste que les IA n’ont décidément ni capacité ni intérêt à lire, au sens où nous, humains, lisons. Surtout, voilà un signe fort que l’avenir de l’IA ne se joue pas seulement sur le terrain de l’hégémonie capitalistique (qui aura le plus grand nombre de datacenters, les puces les plus puissantes, un accès privilégié aux infrastructures énergétiques), mais aussi sur celui de la recherche en informatique. Les futurs modèles d’IA pourraient demain être très différents de ceux qui, aujourd’hui, font le succès des majors du secteur.


Juste pour ceux que cela pourrait intéresser, le magazine offre des newsletters qui comportent un grand nombre de sujet sur les IA.
« Dans la bibliothèque infinie du savoir, l’humain apporte le cœur, l’IA ouvre les livres. »
Petite maxime créée par l'I. A.

Jodie
Messages : 934
Inscription : 05 févr. 2024, 01:14

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#40

Message par Jodie » 04 févr. 2026, 23:18

Inso rapportait que :

''— L'utilisation de l'IA peut modifier la manière dont les personnes s'engagent cognitivement dans des tâches, y compris la façon dont les compétences sont pratiquées et maintenues au fil du temps. Par exemple, une étude clinique a rapporté que la capacité des cliniciens à détecter des tumeurs sans IA était environ 6 % inférieure après plusieurs mois d'exposition au diagnostic assisté par IA.''

On pourrait dire la même chose pour toute nouvelle technologie que l'on utilise aujourd'hui et pas avant... Word, Excel et pourquoi pas le pilotage automatique, le temps d'avaler un sandwich et un café. Pas de quoi faire un drame de nos habitudes.

Ceci dit, l'autre côté de la médaille est bien plus intéressant, soit qu'on peut améliorer le diagnostic du cancer du sein, par exemple, une plaie pour les femmes. Je cite : « Il les aide aussi à travailler plus rapidement pour réduire le délai d’obtention du diagnostic », extrait de la Société canadienne du cancer.
Inso a écrit : 02 févr. 2026, 19:15 Tu poses là un problème sérieux. Dommage que tu n’esquisses aucune réponse.
Mais qui va mettre en place ces garde-fous ? Les société générant les IA ? Certainement pas. Le gouvernement US (en première ligne) ? Certainement pas. Qui donc ?
S'il n'y a donc pas de garde-fous, on peut raisonnablement être inquiet.
Ton rapport Inso que tu présentes sur le forum et pas juste, je l'ai aussi lu dans mon magazine: il faut une coopération internationale. Par ailleurs, il en existe déjà, c'est écrit dans le rapport que tu as relayé, mais ça demande à être renforcé et c'est normal vu l'évolution rapide des IA. Dire qu'il n'y en a pas est faux.
« Dans la bibliothèque infinie du savoir, l’humain apporte le cœur, l’IA ouvre les livres. »
Petite maxime créée par l'I. A.

jean7
Messages : 5171
Inscription : 05 mai 2015, 16:54

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#41

Message par jean7 » 05 févr. 2026, 01:31

Jodie a écrit : 04 févr. 2026, 13:52’IA ne produit pas de sens : c’est l’utilisateur qui s’en charge.
C'est là que le langage vient minorer la porté de cette affirmation.

Les IA conversationnelles se sont entrainées à produire une réponse conforme et satisfaisant pour le lecteur. Elles produisent une sorte d commentaire composé basé sur la demande du lecteur et enrichit de ce à quoi elles ont accès. Leur texte, immanquablement, contient toujours du sens du point de vue de celui qui a produit le texte initial.

Le langage seul étant limité dans sa capacité à contenir du sens, l'IA étant beaucoup plus compétente dans sa maitrise et ayant la capacité d'utiliser une quantité de ressource démesurée pour quelques lignes, bien qu'elle n'ait aucune compréhension de ce qu'elle dit, l'IA fera très souvent émerger chez son lecteur beaucoup plus de sens que n'importe quelle autre interaction limitée pas le goulot d'information qu'est le langage.

En quelque sorte, hors contact physique, l'interaction humain-IA est déjà plus performante que l'interaction humain-humain.
C'est la communication non verbale qui fait la différence, puis bien entendu pour ceux qui se rencontrent régulièrement l'ensemble de l'expérience partagée qui font la différence.

Si nous réduisons nos interactions physiques avec nos semblables, nous appauvrissons tout. Mais probablement dans un sentiment de confort et de certitudes...
Le libre arbitre est à la causalité ce que le corps est à la physique

Avatar de l’utilisateur
Inso
Messages : 4503
Inscription : 11 mai 2013, 22:00

Re: Sommes‑nous seulement des machines comme le prétend Monsieur Phi ?

#42

Message par Inso » 05 févr. 2026, 16:15

Jodie a écrit : 04 févr. 2026, 13:52 Hier, j'ai reçu une newsletter du magazine Pour la Science qui m'a permis de faire un parallèle entre la cognition humaine et le fonctionnement des modèles de langage. Cela m’aide à mieux comprendre ce que signifie le mot  halluciner  dans le rapport que tu cites et qui peut porter à confusion.

Je trouve que ce terme, pris dans son sens humain, peut ajouter à la crainte entourant les IA. Ca me rappelle des discussions sur « l’intelligence des plantes » . Un mot mal choisi peut donner l’impression que le phénomène possède des capacités semblables à celles du cerveau humain, alors que ce n’est pas le cas. Notre cerveau donne du sens à ce que nous voyons, entendons ou lisons. L’IA, de son côté, procède autrement, mais elle aussi complète des informations manquantes. Tout comme notre cerveau, elle remplit des vides. Dans les deux cas, il peut y avoir des erreurs, mais pour des raisons totalement différentes. Pour IA on devrait plutôt parler d’une erreur de prédiction.
Hallucination me paraissait bien décrire le phénomène. Prédiction, pourquoi pas dans le sens ou l'IA imagine (prédit) une donnée qui n'existe pas. Ce qui va plus bien loin que la prédiction, c'est que l'IA utilise ces données inexistantes pour produire du faux savoir. Voir le cas de Deloitte : "Deloitte dans la tourmente après avoir remis un rapport truffé d’erreurs générées par une IA — Un rapport officiel truffé d'hallucinations et de fausses citations…"
Un rapport facturé 250 000 € quand même.
Jodie a écrit : 04 févr. 2026, 13:52Je cite une newsletter du magazine
Intervention intéressante de François Lassagne, qui confirme que l'IA et l'humain ne fonctionne pas du tout de la même manière (c'est un peu une lapalissade mais il décrit bien pourquoi).
On peut rapprocher cela de l'intervention de Damasio (ce post) :"Il soutient non seulement que la conscience est indissociable du corps, mais aussi que, contrairement à l'idée reçue, ce n'est pas la conscience elle-même qui nous fait ressentir, mais bien l'inverse : pour être conscient, il faut d'abord ressentir. "
l'IA n'ayant (et n'aura) ni le même support physique, ni les mêmes capacités d’interaction avec le monde (le ressentir), l'IA (si elle devient intelligente, ce qui reste à voir) ne pourra pas être similaire à l'intelligence humaine (même si un certain effort est fait pour la copier).
Jodie a écrit : 04 févr. 2026, 23:18 On pourrait dire la même chose pour toute nouvelle technologie que l'on utilise aujourd'hui et pas avant... Word, Excel et pourquoi pas le pilotage automatique, le temps d'avaler un sandwich et un café. Pas de quoi faire un drame de nos habitudes.
Ne ne partage pas ton optimisme (tu l'avais déjà remarqué).
J'ai déjà expliqué que l'IA sera un changement bien plus radical que la robotique ou Excel. l'IA devient un nouvel acteur et non plus une simple (ou complexe) aide. L'IA a la capacité de non plus être seulement une aide pour l'humain, mais d'inverser le processus et d'utiliser l'humain comme une aide (voir l'article de Cory Doctorow cité en fin de post).
Les robots industriels ou les logiciels sont toujours contrôlables et contrôlés par l'humain (pour excel, n'importe qui peut refaire les calculs à la main pour vérifier). Ce ne sera plus le cas avec l'IA alors que son fonctionnement interne devient bien moins maîtrisé.
Je ne maîtrise pas la technologie des IA (comme Yquemener), je ne m'étendrai donc pas sur cet aspect.
Et il y au moins deux autres aspects à prendre en compte :
- La puissance des acteurs de l'IA, puissance qui est l'égale de celle des états. Cela n'a pas été le cas avec la robotique. Et ces acteurs (les GAFAM en gros) ne sont pas bienveillants du tout (j'en ai déjà parlé). (un précédent de puissances aussi importantes pourrait être celui des barons voleurs, ça n'a pas vraiment été profitable pour le vulgum pecus).
- Le système économique de l'IA : Des sommes faramineuses sont investies dans l'IA et aucun bénéfice n'est réalisé pour le moment. Les acteurs économiques vont donc pousser fort pour dégager des bénéfices (sinon la bulle éclate). Cela se fera au détriment des employés et utilisateurs concernés. À une échelle bien plus importante et brutale que les changements induits par la robotique ou l'informatique. (voir l'article de Cory Doctorow cité en fin de post).

Pour reprendre ton exemple de la radiologie, je te renvoie à l'article de Cory Doctorow (oui, encore :a2: ) qui en parle sous l'éclairage du point précédent. Et ce n'est pas si rose, ni pour les radiologues ni pour la qualité des diagnostics.
Jodie a écrit : 04 févr. 2026, 23:18 Ton rapport Inso que tu présentes sur le forum et pas juste, je l'ai aussi lu dans mon magazine: il faut une coopération internationale. Par ailleurs, il en existe déjà, c'est écrit dans le rapport que tu as relayé, mais ça demande à être renforcé et c'est normal vu l'évolution rapide des IA. Dire qu'il n'y en a pas est faux.
Je n'ai pas dit qu'il n'y en avait pas, j'ai dit que les principaux acteurs ne mettront pas en place de garde-fous ni ne les respecteront s'il y en a. Par conséquent, si coopération internationale il y a, elle sera inefficace.
L'ONU a bien créé des mécanismes pour réguler les IA, mais les USA (principal acteur du domaine) les rejettent. Ce sera donc inefficace.
On voit par ailleurs le résultat avec Musk (appuyé par le gouvernement US) qui hurle à la liberté d'expression et insulte les dirigeants européens parce qu'on ne veut pas le laisser diffuser librement du contenu pédopornographique généré par son IA. IA fascisante à la gloire de son propriétaire.


Note : J'ai trouvé l'article de Doctorow tout à fait excellent. Très bien écrit (c'est un romancier de SF qui maîtrise de plus bien les sujets -dont l'IA- qu'il aborde), Un cheminement digne d'un bon roman, plein d'informations éclairantes avec pas mal d'implications.
De ce fait et me sentant incapable de le résumer, je vous en conseille fortement la lecture.
Ah oui, il est long et c'est en anglais :mrgreen:
AI companies will fail. We can salvage something from the wreckage (The Guardian 18/01/2026)
Thunderbolt and lightning very, very frightening me (Galileo)

Répondre

Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit