Jodie a écrit : 04 févr. 2026, 13:52
Hier, j'ai reçu une newsletter du magazine
Pour la Science qui m'a permis de faire un parallèle entre la cognition humaine et le fonctionnement des modèles de langage. Cela m’aide à mieux comprendre ce que signifie le mot halluciner dans le rapport que tu cites et qui peut porter à confusion.
Je trouve que ce terme, pris dans son sens humain, peut ajouter à la crainte entourant les IA. Ca me rappelle des discussions sur « l’intelligence des plantes » . Un mot mal choisi peut donner l’impression que le phénomène possède des capacités semblables à celles du cerveau humain, alors que ce n’est pas le cas. Notre cerveau donne du sens à ce que nous voyons, entendons ou lisons. L’IA, de son côté, procède autrement, mais elle aussi complète des informations manquantes. Tout comme notre cerveau, elle remplit des vides. Dans les deux cas, il peut y avoir des erreurs, mais pour des raisons totalement différentes. Pour IA on devrait plutôt parler d’une erreur de prédiction.
Hallucination me paraissait bien décrire le phénomène. Prédiction, pourquoi pas dans le sens ou l'IA imagine (prédit) une donnée qui n'existe pas. Ce qui va plus bien loin que la prédiction, c'est que l'IA utilise ces données inexistantes pour produire du faux savoir. Voir le cas de
Deloitte :
"Deloitte dans la tourmente après avoir remis un rapport truffé d’erreurs générées par une IA — Un rapport officiel truffé d'hallucinations et de fausses citations…"
Un rapport facturé 250 000 € quand même.
Jodie a écrit : 04 févr. 2026, 13:52Je cite une newsletter du magazine
Intervention intéressante de François Lassagne, qui confirme que l'IA et l'humain ne fonctionne pas du tout de la même manière (c'est un peu une lapalissade mais il décrit bien pourquoi).
On peut rapprocher cela de l'intervention de Damasio (
ce post) :
"Il soutient non seulement que la conscience est indissociable du corps, mais aussi que, contrairement à l'idée reçue, ce n'est pas la conscience elle-même qui nous fait ressentir, mais bien l'inverse : pour être conscient, il faut d'abord ressentir. "
l'IA n'ayant (et n'aura) ni le même support physique, ni les mêmes capacités d’interaction avec le monde (le ressentir), l'IA (si elle devient intelligente, ce qui reste à voir) ne pourra pas être similaire à l'intelligence humaine (même si un certain effort est fait pour la copier).
Jodie a écrit : 04 févr. 2026, 23:18
On pourrait dire la même chose pour toute nouvelle technologie que l'on utilise aujourd'hui et pas avant... Word, Excel et pourquoi pas le pilotage automatique, le temps d'avaler un sandwich et un café. Pas de quoi faire un drame de nos habitudes.
Ne ne partage pas ton optimisme (tu l'avais déjà remarqué).
J'ai déjà expliqué que l'IA sera un changement bien plus radical que la robotique ou Excel. l'IA devient un nouvel acteur et non plus une simple (ou complexe) aide. L'IA a la capacité de non plus être seulement une aide pour l'humain, mais d'inverser le processus et d'utiliser l'humain comme une aide
(voir l'article de Cory Doctorow cité en fin de post).
Les robots industriels ou les logiciels sont toujours contrôlables et contrôlés par l'humain (pour excel, n'importe qui peut refaire les calculs à la main pour vérifier). Ce ne sera plus le cas avec l'IA alors que son fonctionnement interne devient bien moins maîtrisé.
Je ne maîtrise pas la technologie des IA (comme Yquemener), je ne m'étendrai donc pas sur cet aspect.
Et il y au moins deux autres aspects à prendre en compte :
- La puissance des acteurs de l'IA, puissance qui est l'égale de celle des états. Cela n'a pas été le cas avec la robotique. Et ces acteurs (les GAFAM en gros) ne sont pas bienveillants du tout (j'en ai déjà parlé).
(un précédent de puissances aussi importantes pourrait être celui des barons voleurs, ça n'a pas vraiment été profitable pour le vulgum pecus).
- Le système économique de l'IA : Des sommes faramineuses sont investies dans l'IA et aucun bénéfice n'est réalisé pour le moment. Les acteurs économiques vont donc pousser fort pour dégager des bénéfices (sinon la bulle éclate). Cela se fera au détriment des employés et utilisateurs concernés. À une échelle bien plus importante et brutale que les changements induits par la robotique ou l'informatique.
(voir l'article de Cory Doctorow cité en fin de post).
Pour reprendre ton exemple de la radiologie, je te renvoie à l'article de Cory Doctorow (oui, encore

) qui en parle sous l'éclairage du point précédent. Et ce n'est pas si rose, ni pour les radiologues ni pour la qualité des diagnostics.
Jodie a écrit : 04 févr. 2026, 23:18
Ton rapport Inso que tu présentes sur le forum et pas juste, je l'ai aussi lu dans mon magazine: il faut une coopération internationale. Par ailleurs, il en existe déjà, c'est écrit dans le rapport que tu as relayé, mais ça demande à être renforcé et c'est normal vu l'évolution rapide des IA. Dire qu'il n'y en a pas est faux.
Je n'ai pas dit qu'il n'y en avait pas, j'ai dit que les principaux acteurs ne mettront pas en place de garde-fous ni ne les respecteront s'il y en a. Par conséquent, si coopération internationale il y a, elle sera inefficace.
L'ONU a bien créé des mécanismes pour réguler les IA, mais les USA (principal acteur du domaine) les rejettent. Ce sera donc inefficace.
On voit par ailleurs le résultat avec Musk (appuyé par le gouvernement US) qui hurle à la liberté d'expression et
insulte les dirigeants européens parce qu'on ne veut pas le laisser diffuser librement du contenu pédopornographique généré par son IA.
IA fascisante à la gloire de son propriétaire.
Note : J'ai trouvé l'article de Doctorow tout à fait excellent. Très bien écrit (c'est un romancier de SF qui maîtrise de plus bien les sujets -dont l'IA- qu'il aborde), Un cheminement digne d'un bon roman, plein d'informations éclairantes avec pas mal d'implications.
De ce fait et me sentant incapable de le résumer, je vous en conseille fortement la lecture.
Ah oui, il est long et c'est en anglais
AI companies will fail. We can salvage something from the wreckage (The Guardian 18/01/2026)