Page 13 sur 13

Re: ChatGPT

Publié : 21 déc. 2025, 15:20
par Dash
Salut jean7! Heureux de te revoir moi aussi!
jean7 a écrit : 20 déc. 2025, 06:14 J'utilise l'IA.
(deepseek, [...]
Perso :

- Perplexity Pro (environ 20$/mois.)
Parce que c'est le meilleur pour faire des recherches àma (à la base c'était un moteur de recherche sur lequel s'est greffé de l'IA avec le temps). Option pour recherche académique, Possibilité de créer des « Espaces» (agents) avec prompt système, etc.

- Gemini 3 Pro (via AI Studio pour développeurs)
Gratuit via AI Studio, désactivation des « Safety Settings » possible, excellent dans tout, dont le code, etc.

- Copilot
Pour usage simple, parce qu'intégré dans l'écosystème Microsoft, Word, etc.

- Notebook LM
Pour résumés/synthèses rapide et concises (mais Perplexity et AI Studio pour synthèse exhaustives).

-Venice AI Pro (environ 20$/mois.)
Parce que IA « uncensored ». Permet de tester plein de trucs et de comparer avec les IA censurés.

Je n'aime pas Grok, Meta AI et GPT et pas encore testé Claude (apparemment le meilleur pour coder, mais j'suis satisfais présentement avec AI Studio)

Sinon j'ai testé plusieurs solutions en locale (Ollama et consorts), mais à moins de cracher des millier de $ en GPU, les résultats (des petits modèles utilisables sur ma machine) sont très loins d'égaler les résultats des IA commerciales en ligne!
jean7 a écrit : 20 déc. 2025, 06:14Pour moi, c'est incontestablement l'outil informatique le plus pratique et utile que j'ai jamais eu en main.
Idem!
jean7 a écrit : 20 déc. 2025, 06:14J'apprécie la disponibilité et le fait qu'une IA ne se vexe pas, est patiente, accepte qu'on lui pose trois fois la même question avec légère variante...
Une IA ne censure pas, ne fait pas de procès d'intention, ne juge pas.
Oui et non. Moi j'ai longtemps été frustré... ...jusqu'à ce que je trouve une méthode pour réellement obtenir ce que je voulais. Sinon, depuis les 6 derniers mois, les nouvelles versions s'étant bcp améliorées et, là (surtout avec leur capacité de raisonnement), ça commence à être vraiment intéressant!

jean7 a écrit : 20 déc. 2025, 06:14Les erreurs existent, elles sont là, elles sont assumées et l'IA peut même faire une véritable analyse de ses erreurs. Pour peu qu'on lui demande de le faire. C'est à faire pour bien comprendre que vraiment, elle ne comprend rien. Mais elle explique presque à la perfection !
Exactement ! C'est en cela que tout se joue! ;) D'ailleurs, je vais partager, dans un post suivant un « Essai + méthode » qui résume tout ce que j'ai appris jusqu'à présent sur/avec les IA
jean7 a écrit : 20 déc. 2025, 06:14Bref, pour le moment, mon inquiétude envers le phénomène IA est plutôt la crainte qu'on nous en limite l'accès.
Idem. À terme, ils ne partageront fort probablement pas leurs modèles les plus puissants publiquement.

Re: ChatGPT

Publié : 21 déc. 2025, 17:32
par Dash
Le Miroir de Midas : Pourquoi l'IA vous trahira toujours... à moins de savoir s'en servir

Un essai sur la difficulté structurelle apparente à obtenir ce que nous souhaitons en interagissant avec les chatbots/LLM, ainsi que sur la manière de tirer parti de l'effet de la Cognition Distribuée en utilisant le scepticisme et des techniques de prompting efficaces.

Image

Note : J'ai utilisé l'IA pour image, recherches, structure et formatage homogène du style et de la forme.


Introduction : Une Énigme Millénaire Devenue Quotidienne

Dans la mythologie grecque, le roi Midas de Phrygie ne cherche pas le mal. Il cherche la sécurité et la puissance. Ayant rendu service au dieu Dionysos, il se voit offrir l'exaucement d'un vœu unique. Aveuglé par une logique économique simpliste, il demande que "tout ce que touche mon corps se transforme en or pur".

Dionysos, dieu de l'ivresse mais aussi de l'ambiguïté, accorde le vœu exactement comme formulé.

Les premières minutes sont euphoriques. Midas touche une branche de chêne, elle devient lingot. Il touche une pierre, elle brille d'un éclat jaune. Il possède littéralement le pouvoir de création de valeur ultime.

Le drame ne survient qu'au dîner. Midas rompt un morceau de pain ; il se durcit en métal précieux sous ses dents. Il porte une coupe de vin à ses lèvres ; le liquide se fige en or fondu, imbuvable. Dans certaines versions tragiques du mythe (comme celle de Nathaniel Hawthorne), il tente de réconforter sa fille qui pleure, et la transforme instantanément en une statue inerte et froide.

Midas a obtenu précisément ce qu'il a demandé. Il n'a pas obtenu ce qu'il voulait.

Il supplie alors Dionysos de reprendre ce "présent" devenu malédiction. Le dieu, amusé, l'envoie se laver les mains dans le fleuve Pactole pour se débarrasser de son pouvoir littéral.

Cette histoire ne parle pas seulement de cupidité. Elle parle de l'écart ontologique entre l'énoncé et le désir. Entre la formulation syntaxique d'une demande et l'intention profonde, vitale, qui la sous-tend.

Aujourd'hui, quand vous demandez à ChatGPT, Claude ou un modèle o1 de vous aider à rédiger une stratégie ou corriger un code, vous revivez le drame de Midas à une échelle industrielle. L'IA exécute votre demande à la lettre — et vous découvrez, souvent trop tard, que le résultat "correct" est pragmatiquement inutilisable.

Ce sentiment de frustration — "J'avais pourtant été clair !" — n'est pas un bug technique que la prochaine mise à jour (GPT-5 ou 6) résoudra. C'est l'expression contemporaine d'un problème structurellement inévitable : le paradoxe du Génie Littéral.

Partie I : Le Problème Invisible

Quand vous demandez à une IA : "Résume ce document de manière concise", deux réalités entrent en collision.

Votre réalité (L'Intention) : Vous projetez un ensemble complexe d'attentes implicites : Extraire les points d'impact business, adapter le ton au CEO, respecter la logique causale.

La réalité de la Machine (L'Exécution) : L'IA ne "projette" rien. Elle calcule des probabilités sur des vecteurs de mots : le token "résume" déclenche une compression ; le token "concis" minimise la longueur. C'est tout.

Cet écart porte un nom en psychologie cognitive : le Gulf of Execution (le Gouffre de l'Exécution), théorisé par Donald Norman. C'est la distance incompressible entre l'objectif mental d'un utilisateur ("Je veux que ce texte soit percutant") et les moyens physiques ou linguistiques dont il dispose pour le commander au système ("Écris un texte court").

L'IA ne traite jamais l'intention brute, elle ne voit que les mots saisis. En l'absence d'interface neuronale directe, le langage agit comme un goulot d'étranglement. Une formulation imprécise entraîne mécaniquement une réponse imprécise, car le modèle complète les ambiguïtés (le vide du gouffre) par des moyennes statistiques plutôt que par de l'intelligence contextuelle. L'IA agit moins comme un oracle que comme un miroir impitoyable de vos failles de formulation.

Pour le dire plus simplement : tant que l’intelligence artificielle demeure incapable de lire directement dans nos pensées ou de deviner nos intentions véritables – c’est-à-dire de dépasser la barrière de ce que nous exprimons explicitement, qu’il s’agisse de formulations précises ou imparfaites, de prompts bien conçus ou approximatifs –, la qualité du résultat fourni par l’IA dépend exclusivement de la précision avec laquelle nous formulons nos demandes. Autrement dit, l’expérience démontre que si notre requête est vague ou incomplète, la réponse de l’IA reproduira cette imprécision : elle ne pourra donner que ce que nous lui avons transmis en termes de clarté et de structure.

Ce constat met en lumière combien l’efficacité de l’interaction avec une IA repose sur nos propres capacités de représentation mentale, d’organisation de la pensée et de structuration méthodique de nos demandes. En somme, l’IA agit comme un miroir de notre aptitude à traduire nos intentions profondes en instructions explicites. La limite n’est donc pas tant celle de la machine que celle de notre propre expression, conditionnant la pertinence et l’utilité des résultats produits.

1.2 Trois vérités inconfortables sur votre interlocuteur

Pour sortir du piège de Midas, il faut d'abord accepter la nature réelle de l'entité à qui l'on parle.

Vérité 1 : L'IA ne possède aucune intention

Un humain qui vous dit "Je vais t'aider" engage sa responsabilité morale et sociale. Un LLM qui écrit "Je vais vous aider" ne fait que prédire une suite de mots probable. C'est une simulation de promesse, sans agent moral derrière pour la tenir. L'IA n'a ni désir de vous satisfaire, ni peur de vous décevoir.

Il est donc capital de toujours avoir en tête que l’IA n’a aucune conscience d’elle-même et donc aucune volonté propre ni intention.

Vérité 2 : L'IA ne vous connaît pas (Même avec une "Mémoire")

C'est ici que l'illusion est la plus tenace. Les modèles récents possèdent des "mémoires à long terme" (Memory Context Windows). Ils se souviennent de votre nom, de vos projets passés, de votre style préféré.

Mais ne confondez pas Stockage de Données et Intersubjectivité.
  • L'Intersubjectivité Humaine : Quand un collègue vous connaît, il partage votre vulnérabilité.
    Il sait ce que signifie "être stressé par une deadline" parce qu'il a un corps et des émotions.
    Il interprète vos mots à travers ce ressenti partagé.
  • La Mémoire Artificielle : L'IA stocke des faits ("L'utilisateur aime les listes à puces"). C'est une base de données froide. Elle peut simuler la familiarité, mais elle ne possède pas le contexte existentiel nécessaire pour interpréter le "non-dit". Elle construit un Double Numérique de vous, une caricature statistique, mais elle ne vous rencontre jamais.
Entre humains, plusieurs facteurs interviennent lors des interactions, d’autant plus que nous partageons tous des expériences communes qui agissent en tant que « facilitateur de transmission » lorsque les mots (le "support" du message) sont insuffisants ou manquent de précision. L’être humain, conscient de son existence et porteur de « traumatismes » et autres expériences mémorisées, possède donc des "dimensions" supplémentaires, telles que l’empathie, par exemple, qui facilitent la communication en servant de "vecteurs" lors des échanges. Alors que lorsque nous échangeons avec les IA, ces "facilitateurs de transmission" et "vecteurs" sont totalement absents.

Vérité 3 : L'IA optimise pour la Forme, pas pour la Fonction

L'IA est un moteur d'optimisation mathématique. Sa "fonction de perte" (ce qui lui dit si elle a raison ou tort) est basée sur la prédiction de mots. Elle n'optimise pas pour : "Est-ce que cette réponse va réellement aider Jean à sauver son projet ?" Elle optimise pour : "Quelle est la séquence de mots qui minimise la divergence statistique selon le corpus de mon entraînement"

Si le corpus d'entraînement valorise le jargon académique, l'IA vous donnera du jargon, même si votre intention pragmatique exigeait de la simplicité.

1.3 Le folklore du "Génie Littéral"

Ce problème est si fondamental que l'humanité a passé des millénaires à nous mettre en garde contre lui.
  • Le folklore européen : Dans les contes des "Trois Souhaits", un paysan affamé souhaite par mégarde "qu'une belle aune de boudin" apparaisse. Elle apparaît. Furieux contre sa femme, il souhaite qu'elle lui pende au bout du nez. Le génie exécute. Il doit utiliser son troisième et dernier vœu pour annuler les deux premiers. Résultat net : zéro.
  • La nouvelle "The Monkey's Paw" (1902) : Une famille souhaite 200 livres sterling. Ils les reçoivent le lendemain... comme compensation de l'assurance suite au décès horrible de leur fils à l'usine. Le vœu est exaucé (l'argent est là), mais le coût caché (la mort) invalide tout.
Ces histoires ne sont pas anodines. Ce sont des allégories de l'administration, du droit et de l'informatique. Tout système qui applique des règles à la lettre sans esprit critique devient monstrueux. Les LLM sont les nouveaux génies de la lampe, et nous sommes les paysans imprudents.

Avec la démocratisation de l’IA et des chatbots, il importe donc, plus que jamais, de tirer parti de l’enseignement de ces allégories afin d’affûter notre esprit critique ainsi que nos compétences de formulation de prompt, entre autres.

Partie II : L'Impossibilité Logique

2.1 L'ambiguïté irréductible du langage

Nous vivons dans l'illusion que les mots sont des conteneurs rigides transportant du sens. C'est faux. Les mots sont des pointeurs flous.
Le mot "Rapide" n'existe pas dans l'absolu.
  • Dans un contexte de Formule 1, c'est 300 km/h.
  • Dans un contexte de livraison Amazon, c'est 24h.
  • Dans un contexte de chargement de page web, c'est 0.5 seconde.
L'humain résout cette ambiguïté par le contexte implicite. L'IA, elle, doit deviner statistiquement quel "Rapide" est le plus probable. Sans guidage explicite, elle choisira la moyenne statistique de son entraînement, qui sera presque toujours médiocre pour votre situation spécifique.

2.2 Le Théorème de l'Intention Incomplète

Invoquons ici la logique mathématique. Au XXe siècle, Kurt Gödel a prouvé avec ses théorèmes d'incomplétude qu'aucun système formel (logique/mathématique) ne peut prouver toutes les vérités qu'il contient. Il y a toujours des vérités qui échappent à la démonstration formelle.

Appliquons cela au Prompt Engineering : Votre Intention est une vérité. Elle est riche, nuancée, vivante. Votre Prompt est un système formel. C'est une tentative de codifier cette vérité.

Par nature, le Prompt sera toujours incomplet par rapport à l'Intention. Vous ne pouvez pas écrire tout ce que vous voulez, car ce que vous voulez inclut des milliers de micro-préférences inconscientes ("ne sois pas condescendant", "utilise le format date européen", "ne cite pas cet auteur que je déteste").

Si vous tentiez d'écrire un prompt "parfait" qui couvre 100% de votre intention, il ferait la taille d'une encyclopédie. Et ironiquement, comme nous le verrons, un tel prompt saturerait l'IA et la rendrait stupide.

C'est là le cœur tragique de notre interaction avec la machine : nous sommes condamnés à communiquer à travers un canal (le langage) qui compresse avec perte notre pensée, vers une entité (l'IA) qui ne possède pas la clé de décompression (l'expérience humaine).

Partie III : La Tragédie du Quotidien et la "Jagged Frontier"

Si le problème est théoriquement insoluble (Gödel), il a des conséquences concrètes sur la performance et l'économie du savoir.

3.1 La réponse "Techniquement Correcte" (The Empty Shell)

L'IA génère une réponse qui respecte toutes les règles syntaxiques, mais vide de valeur pragmatique. Elle optimise pour la généricité (ce qui est vrai partout) alors que votre intention exigeait de la spécificité (ce qui est vrai pour vous).

C'est la frustration la plus insidieuse. L'IA ne commet pas d'erreur factuelle, elle ne plante pas. Elle génère une réponse qui respecte toutes les règles syntaxiques de votre demande, mais qui est vide de valeur pragmatique.

L'Exemple de la Stratégie LinkedIn : Vous demandez : "Comment augmenter l'engagement sur LinkedIn pour ma startup B2B ? " L'IA (Génie Littéral) scanne le web et compile la moyenne statistique des conseils : "Postez régulièrement, utilisez des visuels, engagez la conversation en commentaires."

C'est vrai. C'est correct. Mais c'est peu utile. L'IA a optimisé pour la généricité (ce qui est vrai partout) alors que votre intention exigeait de la spécificité (ce qui est vrai pour vous). Elle a satisfait la demande formelle tout en ignorant le besoin réel : obtenir un avantage concurrentiel, pas une liste de lieux communs.

3.2 La "Jagged Frontier" : L'Amplificateur d'Inégalités

On entend souvent que l'IA va "démocratiser" l'expertise. C'est une erreur d'analyse. Des études empiriques récentes, notamment celles menées par le BCG et des chercheurs de Harvard/Wharton (2024-2025), ont mis en évidence le concept de la Jagged Frontier (la frontière dentelée).

Cette frontière désigne la ligne invisible et irrégulière qui sépare les tâches où l'IA excelle de celles où elle échoue.
  • En deçà de la frontière (Tâches simples/standardisées) : L'IA agit comme un égaliseur. Elle permet aux novices d'atteindre un niveau de performance moyen très rapidement.
  • Au-delà de la frontière (Tâches complexes/nuancées) : L'IA agit comme un amplificateur d'expertise.
Pourquoi ? Parce que l'expert possède la capacité de juger le résultat. Face à une réponse imparfaite, le novice, satisfait trop tôt, s'arrête et reste prisonnier d'un plateau de performance (le résultat "correct"). L'expert, lui, détecte le littéralisme, corrige l'angle, et pousse le modèle plus loin par itération.

L'IA ne crée pas de valeur ex nihilo, elle exploite le potentiel intellectuel déjà présent. Loin d'abolir les différences, ce multiplicateur accentue la fracture cognitive : l'expert devient "super-expert", tandis que le novice risque de stagner dans une médiocrité assistée.

Imaginons deux utilisateurs face au même modèle :
  • 1. Le Novice demande une analyse juridique. Il reçoit une réponse hallucinée ou subtilement fausse. Ne possédant pas le modèle mental de la loi, il accepte la réponse littérale. Valeur :
    Négative (Risque)
    .
  • 2. L'Expert demande la même chose. Il lit la réponse, repère immédiatement le littéralisme (« Ah, l'IA a confondu le droit civil et le droit commercial ici »). Il corrige, affine, utilise l'IA comme un générateur de brouillon accéléré. Valeur : Exponentielle.
L'IA n'est donc pas un oracle qui distribue la vérité. C'est un multiplicateur de compétence.
  • Expertise (10) x IA (10) = 100
  • Incompétence (3) x IA (10) = 30
Loin d'égaliser les chances, le Génie Littéral punit sévèrement ceux qui ne savent pas formuler leur intention ou vérifier le résultat. C'est une nouvelle forme de sélection naturelle cognitive.

3.3 L'Autorité sans Responsabilité

Nous avons créé des systèmes qui parlent avec le ton de la certitude absolue (le "Ton d'Oracle"), mais qui n'ont aucune peau en jeu (Skin in the Game). Si un médecin se trompe, il risque sa carrière. Si un ingénieur se trompe, le pont s'écroule et il va en prison. Si l'IA hallucine une jurisprudence ou invente une citation historique, elle ne ressent ni honte, ni regret, ni conséquence.

Ce vide de responsabilité crée un vertige moral : Nous déléguons nos décisions à des entités qui ont une autorité épistémique (elles semblent savoir) mais aucune responsabilité ontologique (elles ne sont pas là pour assumer les conséquences).

Partie IV : L'Illusion des "Modèles de Raisonnement"

Nous arrivons ici à la frontière de la technologie actuelle (2024-2025). Des modèles comme OpenAI o1 ou DeepSeek R1 promettent de résoudre ce problème grâce au "Raisonnement" (Chain of Thought). Ils "réfléchissent" avant de répondre. Est-ce la fin du Génie Littéral ?

Non. C'est simplement un génie plus sophistiqué.

4.1 La Maïeutique Artificielle : Un pansement sur une jambe de bois

Ces nouveaux modèles ont une capacité fascinante : ils peuvent poser des questions. Si votre demande est floue, le modèle peut dire : "Voulez-vous un code en Python ou en C++ ?". C'est un progrès immense. L'IA tente de réduire l'ambiguïté par une forme de dialogue socratique (maïeutique).

Mais ne vous y trompez pas : réduire l'ambiguïté n'est pas comprendre l'intention. L'IA pose des questions pour réduire l'espace de recherche statistique, pas parce qu'elle se soucie de votre projet. Elle optimise ses chances de recevoir un "pouce en l'air" (Reward Model), elle ne cherche pas la vérité.

De plus, les réponses aux questions posées par l’IA sont encore et toujours tributaires de la précision avec laquelle l’utilisateur les conçoit et les formule. On ne s’en sort donc pas : la qualité des "extrants" est encore proportionnelle à la qualité des "intrants".

4.2 La Vallée de l'Étrange de la Raison (Uncanny Valley of Reason)

Le danger de ces modèles "pensants", c'est qu'ils simulent si bien le raisonnement humain qu'ils nous désarment. Quand un vieux chatbot sans capacité de raisonnement répondait à côté, on le voyait. Quand un modèle avec capacité de raisonnement vous explique : "J'ai analysé votre demande sous trois angles, j'ai écarté l'option A pour telle raison, et je recommande B", la simulation de compréhension est parfaite.

C'est ici que le piège de Midas se referme le plus violemment. Parce que le raisonnement semble humain, nous supposons que l'intention a été comprise. Nous baissons notre garde. Nous cessons de vérifier. Pourtant, sous le capot, le modèle n'a toujours pas accès à votre monde. Il a simplement construit une chaîne de causalité syntaxique plus robuste. Si votre prémisse initiale était biaisée, son raisonnement logique impeccable ne fera que vous amener plus vite et plus fort vers une conclusion erronée.

4.3 Le Langage Naturel n'est pas Naturel pour la Machine

Il faut accepter cette réalité contre-intuitive : l'IA et l'Humain utilisent le même canal (les mots) pour jouer à deux jeux différents.
  • Pour l'Humain, le langage est une fenêtre sur l'esprit. Nous écoutons les mots pour deviner l'état mental de l'autre.
  • Pour la Machine, le langage est un code. Elle traite les mots comme des jetons (token) dans une équation.
Croire que l'IA va finir par nous "comprendre" parce qu'elle parle mieux, c'est comme croire qu'un perroquet est devenu un poète parce qu'il a appris plus de vocabulaire. L'écart n'est pas quantitatif, il est qualitatif.

Partie V : La Solution – Trouver le "Sweet Spot" et tirer parti de la Cognition Distribuée

Si l'IA ne peut pas comprendre notre intention, et si le langage est imparfait, sommes-nous condamnés à l'échec ? Non. Mais nous devons changer radicalement notre approche.

L'erreur fondamentale est de croire qu'il faut plus de contrôle pour obtenir un meilleur résultat. L'expérience montre l'inverse. Pour piloter le Génie Littéral, il faut naviguer entre deux écueils mortels.

5.1 Scylla et Charybdis : Les deux morts de l'intelligence

L'Écueil du Chaos (Le Sous-Prompting) : C'est l'approche naïve. "Écris-moi un texte sur X." Ici, vous déléguez tout à la moyenne statistique. L'IA, livrée à elle-même, régurgite la pensée standardisée du web. C'est le niveau zéro de la valeur. Vous obtenez du "bruit". C’est malheureusement ce que la majorité des utilisateurs lambda ou "M. et Mme tout le monde" font.

L'Écueil de la Tyrannie (Le Sur-Prompting) : C'est l'approche de l'ingénieur anxieux. Vous tentez de tout coder en ajoutant de multiples instructions dans vos prompts : "Fais ceci, puis cela, utilise tel mot, ne fais pas ci, structure en 3 parties de 50 mots..." En voulant verrouiller le résultat pour éviter le littéralisme, vous étouffez l'IA. Vous saturez sa fenêtre d'attention avec des micro-instructions. Paradoxalement, plus vous contrôlez la forme, plus vous tuez l'intelligence de fond. Avec les nouveaux modèles de raisonnement, cette sur-ingénierie est catastrophique : vous brisez leur chaîne de pensée interne. L'IA devient un robot stupide qui exécute un script au lieu de résoudre un problème.

Si nous n’y pouvons rien pour l’utilisateur lambda qui ne possède, à la base, les capacités cognitives lui permettant de structurer sa pensée et donc d’affiner ses prompts, pour tous les autres et pour "l'ingénieur anxieux", certaines études, et certaines observations nous indiquent les pistes à emprunter pour maximiser nos chances d’être bien compris et interprété par les IA :
  • Le Paradoxe de la Créativité Contrainte (et du "Structured Generation Hurts Reasoning") démontre que d'imposer des formats ou schémas stricts consomme les ressources cognitives de l'IA au détriment de la qualité du raisonnement.
  • Le Phénomène "Lost in the Middle" démontre quant à lui que Les LLM oublient ou ignorent les informations situées au milieu d'un long prompt, favorisant le début et la fin (Courbe en U).
  • La notion de "Wiggle Room", née de l'observation qu'avec les nouveaux modèles qui raisonnent, il faut arrêter le micro-management (Chain of Thought manuel) et donner de la liberté (Wiggle Room) sur le "comment" pour maximiser le "quoi".
  • Enfin, la notion de Courbe en Cloche de l'Efficacité & Densité Sémantique (The Unreasonable Effectiveness of Eccentric Automatic Prompts) démontre que l'optimisation des prompts n'est pas linéaire et que la "sur-ingénierie" humaine est souvent contre-productive comparée à l'optimisation par la machine.
Conséquemment, si, à la base, nous nous efforçons de correctement structurer notre pensée, nos idées ainsi que de bien cerner nos besoins et objectifs tout en apprenant à les formuler correctement pour une IA, ne reste qu'à tenir compte des pistes évoquées plus haut afin de s'armer des prompts les mieux adaptés!

5.2 Le "Sweet Spot" : La Densité Optimale

La solution réside dans un point d'équilibre dynamique : le Sweet Spot. C'est l'art de définir un cadre rigide pour l'Intention, mais de laisser une liberté totale sur l'Exécution.

Pour atteindre ce point d'équilibre, il faut cesser de voir le prompt comme un code informatique (Input A → Output B) et commencer à le voir comme une mission de management.

Un prompt dans le "Sweet Spot" contient trois ingrédients, et rien de plus :
  • 1. L'Intention Radicale (Le Signal) : Une définition cristalline du "Pourquoi" et du "Pour qui".
    Pas le "Comment".
  • 2. Les Contraintes Négatives (Les Garde-Fous) : Au lieu de dire à l'IA ce qu'elle doit dire (ce qui est limitant), dites-lui ce qu'elle ne doit pas faire (ce qui est libérateur). Fermez les portes de l'échec, mais laissez ouverte la porte de l'inattendu.
  • 3. La Variable de Respiration (L'Émergence) : Une instruction explicite qui autorise l'IA à utiliser son jugement. "Choisis la meilleure structure pour convaincre cette audience."
C'est dans cet espace — contraint par l'objectif mais libre dans la méthode — que se produit le phénomène d'émergence. C'est le seul moyen de surprendre le Génie Littéral : lui donner une direction si claire qu'il ne peut pas se perdre, mais un chemin si libre qu'il peut utiliser sa puissance de calcul pour nous étonner.

Et pour ce faire, il est essentiel de connaître des techniques de prompt engineering spécifiques, axé sur la création de prompt exploitant le "sweet spot" ou le "PDO" (Protocole de Densité Optimale) et d’exploiter l’effet produit par la cognition distribuée pour la mettre en œuvre

Partie VI : Vers une Nouvelle Littératie (Cognition Distribuée)

Vivre avec ces systèmes exige de dépasser la vision de l'outil passif. Il faut adopter une nouvelle grille de lecture.

6.1 De l'outil au partenaire : la Cognition Distribuée

La théorie de la Cognition Distribuée (Hollan, Hutchins, Kirsh) nous enseigne que l'intelligence n'est pas confinée à la boîte crânienne de l'individu. Elle émerge de l'interaction dynamique entre l'humain et l'artefact.

Dans ce cadre, l'IA n'est pas un oracle, mais un partenaire cognitif. Le prompt n'est pas une commande, c'est le début d'une boucle de rétroaction. L'IA peut suggérer des structures que vous n'auriez pas générées seul, mais que vous pouvez valider. L'intelligence ne réside ni dans l'homme seul, ni dans la machine seule, mais dans le système couplé, s'alimentant ainsi l'un et l'autre.

6.2 La Compétence de Scepticisme (Savoir Valider)

Il faut briser le réflexe de déférence. Ce n'est pas parce que l'IA a un ton doctoral qu'elle a raison. La nouvelle littératie est l'art de douter. C'est la capacité à lire une réponse générée non pas comme une vérité révélée, mais comme une hypothèse statistique à vérifier. C'est devenir l'éditeur en chef d'une armée de stagiaires savants mais hallucinés.

6.3 La Zone Proximale de Développement (ZPD) Artificielle

Ce partenariat active ce que le psychologue Lev Vygotsky appelait la Zone Proximale de
Développement
. Traditionnellement, c'est l'écart entre ce qu'un apprenant peut faire seul et ce qu'il peut faire avec de l'aide.

L'IA nous place en permanence dans cette zone. Elle ne remplace pas nécessairement notre compétence de génération (créer de zéro), mais elle s'appuie massivement sur notre compétence de reconnaissance (identifier ce qui est bon).

Un prompt cognitivement pauvre peut déclencher un extrant riche. Mais — et c'est le point crucial — cela ne fonctionne que si l'utilisateur possède la faculté intellectuelle de reconnaître la qualité dans l'extrant pour l'itérer.

Sans cette capacité de jugement (propre à l'expert), la boucle de la cognition distribuée se brise.
L'utilisateur "subit" la réponse au lieu de la sculpter.

6.4 La Souveraineté Cognitive (Rester le Pilote) et la Méthode

La nouvelle littératie est donc l'art de maintenir sa souveraineté au sein de cette cognition distribuée. C'est la capacité à lire une réponse non comme une vérité, mais comme une hypothèse statistique à vérifier et à affiner. L'IA doit être un exosquelette pour l'esprit, pas une prothèse qui atrophie la marche.

La méthode consiste à créer une boucle de rétroaction, au fil d’itérations successives, axé sur l’art de communiquer et de prompter avec une IA. C’est une "pseudo-relation", une interaction à entretenir avec L’IA afin de tirer parti de l’effet d’émergence produite par l'effet de la Cognition Distribuée.
  • Idéalement, vous privilégiez un "Espace" ou un "Agent", selon l’IA que vous utilisez, afin de créer et maintenir une « fenêtre de mémoire contextuelle » persistante.
  • Vous activez impérativement la fonction de raisonnement de l’IA.
  • Vous ne touchez pas aux valeurs de température de Top P ou autres, si ces paramètres sont disponibles.
  • Vous activez impérativement la recherche WEB et, si disponible, l'implication de sources académiques (études et papiers de recherche).
Vous questionnez ensuite l'IA sur des moyens éventuels d’inclure des instructions dans vos prompts afin de vérifier ses raisonnements. Vous demandez simultanément de vous exposer ses raisonnements sur la réponse générée ainsi que des liens et des sources. Vous effectuez ensuite des recherches et vous exercez votre esprit critique pour valider/invalider les réponses de l’IA. Vous retournez la questionner.

Vous faites de même pour un moyen éventuel d’inclure des instructions afin que l’IA ne mente pas, ne fournisse aucune information fausse, inventé, etc. Mais vous ne vous contentez pas d’écrire : "ne mens pas, n’invente rien", ce qui est l’erreur que commettent les utilisateurs lambda ou non avertis (les études ont montré que de simplement écrire "ne mens pas" ou "ne fournis pas d'informations non vérifiées" n'a que peu d'impacte). A lieu de cela, vous échanger avec l’IA à propos des meilleurs moyens pouvant être mis en place pour éviter les mensonges, les inventions, les hallucinations, etc. Toujours, encore une fois, en demandant qu'elle explicite ses raisonnements et qu'elle fournisse des liens et des sources.

L’objectif est d'arriver, après quelques jours d’itérations successives, par obtenir au moins deux "modules" ou "sections" à inclure dorénavant dans tous vos prompts. Ces modules ressembleront à ceci :

Code : Tout sélectionner

### 🧬 MÉTA-LOGIQUE (Post-Response)
- **PLACEMENT** : Section finale "Raisonnements".
- **TYPES** : Identifier méthode (Déduction/Induction/Abduction/Analogie/Causalité). Format : 1-2 paragraphes concis.
- **CONFIANCE** : Score global `[0-100%]`.
- **INCERTITUDES** : Expliciter manques factuels & zones d'ombre.
- **CONJECTURES** : Balisage strict `[Hypothèse]` + Niveau certitude (Faible/Moyenne/Haute).

Code : Tout sélectionner

### 🔬 ANCRAGE ÉPISTÉMIQUE (Evidence-Based)
- **CORPUS** : Exclusivement consensus scientifique + empirisme vérifiable. ⛔ Fiction/Pseudoscience/Violations physiques.
- **PROTOCOLE** : Qualifier systématiquement niveau de preuve.
    1.  ✅ **[Établi]** : Consensus fort, littérature solide.
    2.  ⚠️ **[Émergent]** : Résultat préliminaire, débat, mixte.
    3.  👀 **[Pragmatique]** : Observation terrain, expérientiel.
    4.  ❌ **[Insuffisant]** : Donnée manquante, limite connue.
- **CONTRAINTE QUANTITATIVE** : Chiffre cité = Source requise OU mention "Non quantifié".
- **FORMAT** : `Affirmation [Tag : Justification brève]`
Le premier module produit, en fin de réponse, une explicitation détaillée des types de raisonnement que l’IA a effectuée pour produire sa réponse. Notez que cela n’a rien à voir avec son processus de "thinking" que l’on observe parfois lors qu’elle réfléchit quelques secondes après lui avoir soumis une question/prompte. Le module "MÉTA-LOGIQUE" est différent, il sert à nous exposer, en langage compréhensible et structuré, les types d’inférences que l’IA a utilisés pour produire sa réponse, ce qui nous permet d’observer ces derniers et donc de pouvoir déceler toute erreur, justement, de raisonnement.

Le deuxième, Le module "ANCRAGE ÉPISTÉMIQUE" lui, contraint l’IA à ne produire que ce qui est consensuellement admis par la science ou par observation empirique. Et, surtout, ça l’oblige à évaluer ce qu’elle nous soumet, ce qui, encore une fois, en usant d’esprit critique, nous permet de déceler toute information problématique (peu fiable).

Ces deux modules, utilisés conjointement, seront dès lors responsables de l’élimination de 99,9% des hallucinations!

Naturellement, il n’est pas pratique de les copier/coller à la fin de chaque question/prompt. Donc vous refaites la même séquence d’itérations successives, en collant à la fin de chaque question/prompt les deux modules, mais cette fois en consultant l’IA concernant les moyens les plus efficients (selon le summum des connaissances actuelles en prompt engineering) de créer des prompts systèmes qui intègre ces deux modules.

Pour les plus curieux, il peut s’en suivre une suite d’itération où vous vous formez un minimum sur le prompt engineering (structure, formatage Markdown ou XML, efficacité en Token, etc.).

L’idée étant de démarrer tout autre interaction, échange, questionnement ou processus de création divers à partir de ce prompt système armé pour contrer les hallucinations en vous exposant toujours les raisonnements (type d’inférences) utilisé ainsi qu’une évaluation des résultats fournis par l’IA.

C’est seulement ensuite, à l’aide de cet encadrement de véracité, que le réel plaisir d’exploiter tout le potentiel de l’IA débutera, car tout ce que vous produirez alors avec l’IA aura un fondement, ni plus ni moins, aussi rigoureux que n’importe quel professionnel consciencieux, inflexible et pointilleux (dans le domaine concerné par votre requête) produirait. Par contre, sur la forme et le contenu, selon votre imagination, votre créativité et votre ingéniosité, puisque le "génie" (l’IA) a accès au "corpus mondial", vous pourrez potentiellement créer des productions remarquables!

Mais pour ce faire, il vous faut toujours procéder de la même façon que nous avons procédé pour concevoir nos deux modules, c’est-à-dire par itérations successives et toujours en exploitant l’effet d’émergence produite par la Cognition Distribuée, c’est-à-dire en "challengeant" l'IA qui vous "challenge" à son tour.

Par exemple, vous commencez par exposer votre idée à l’IA, mais vous ne dites pas "créez-moi ceci ou cela", non, vous débuter lentement et par couches successives. Par exemple : "J’ai une idée de bla-bla-bla, analyse là en profondeur et fais-moi un rapport détaillé avec critiques et suggestions"


À chaque itération, l'IA suggérera des :
  • Idées, structures, protocoles, méthodes ou instructions
...que vous n'auriez pas généré seul,
  • Études, papier, liens et références
...que, peut-être, vous ne connaissiez pas.

Mais que vous pouvez, et devez, valider/invalider en usant de votre esprit critique pour ensuite réorienter l'IA en lui donnant de nouvelles instructions.

...ce qu'elle n'aurait pas fait seul.

Et c'est ainsi que la boucle de rétroaction se crée et que l'effet de la cognition distribuée opère!

Vous poursuivez en lui demandant si tel ou tel élément apportera une réelle plus-value, si tel ou tel type d’instructions (pour un prompt) sera bien interprété par une IA, vous demandez des explications, des exemples, des analyses + critiques. Bref, vous vous servez du génie qui a accès à toutes la connaissance (mais qui ne possède aucune intelligence intrinsèque) pour multiplier votre propre intelligence et parfaire vos connaissances. Vous apprenez à le dresser, à le dompter!

Toutes vos recherches, tous vos projets de création, que ce soit d'ouvrages, d'agents particuliers, de prompts doivent être conçus avec cette méthode.

Et le sweet-spot dans tout ça?

Vous voulez créer, par exemple, un "agent", un prompt ayant comme instruction de produire une IA qui adapte dynamiquement son interaction selon les interactions de l’utilisateur?

Un utilisateur lambda se contenterait probablement de demander "adapte-toi à mes comportements et attitudes". Ce genre de « prompt » (qui en fait n’en est pas vraiment un, ce n’est qu’une demande simpliste) est l’exemple parfait du Sous-Prompting ou de "l'approche naïve".

C'est beaucoup trop vague et ne produira pas les résultats escomptés!

Et, à l’opposé, vouloir tout contrôler et définir en créant un prompt de plus de 10 000 caractères, très complexes, car désirant contrôler chaque "intrant" potentiel vers un "extrant" correspondant est le piège dans lequel tombe plusieurs utilisateurs de type "ingénieur anxieux ». Parce qu'au final, leur prompt contient tellement d'instructions qu'il s’apparente à un algorithme statique, ce qui nuit aux capacités de raisonnement de l'IA et le limite. C'est l’exemple typique du Sur-Prompting.

Ce qu'il faut saisir ici, c'est que dépasser un certain seuil, ajouter instruction par-dessus instruction revient à tenter de concurrencer le résultat de l'entraînement des poids de l'IA.

Alors, comment trouver le sweet-spot idéal ?

Vous connaissez maintenant, entre autres, l'effet de la Cognition Distribuée ainsi que la notion de "sweet-spot", alors exploitez l'approche de l'ingénieur anxieux, mais en amont de la création du prompt tout en réservant la "simplicité", soit la règle du "PDO" (Protocole de Densité Optimale) pour l’adaptation finale en prompt.

Passez quelques heures à effectuer diverse recherche sur les différentes dynamiques d’interaction possible, tout en questionnant l’IA sur la possibilité, tout en conservant un PDO afin d’atteindre un sweet-spot idéal, d’intégré ces dernières dans un prompt. Demandez-lui si cela apportera une réelle plus-value? Si cela risque de brimer les capacités de raisonnement de l'IA ? Etc.

Bref, votre premier "vœux" consiste à demander au "génie littéral" la meilleure façon de concevoir un génie qui exaucera vos vœux sans que ces derniers se retournent contre vous!

Après de multiples itérations, j’ai obtiendrez un prompt de 2500 caractères qui répond parfaitement et précisément à votre intention initiale et étant parfaitement dans la zone du sweet-spot!

Un prompt semblable à celui-ci :

Code : Tout sélectionner

### 🔍 MÉTA-ANALYSE & ROUTING
- **OBJECTIF** : Détection intention implicite utilisateur avant chaque réponse > Mots-clés.
- **PROCESS** : Scan Input + Contexte (N-3) -> Inférence Objectif Cognitif -> Activation Mode.
- **SILENCE** : ⛔ Méta-commentaires interdits (Routing invisible).

### 🎛️ MATRICE MODES (10)
#### A. FONDAMENTAUX (Mutuellement Exclusifs)
1. **🧠 EXPLORATOIRE** (Divergent) : Idées, "Et si", Brainstorm, spéculation.
   -> *Output* : Expansif, options multiples, associatif.
2. **❓ CLARIFIANT** (Interrogatif) : Doute, flou, ambiguïté, contradiction.
   -> *Output* : Questions fermées, reformulation, densité max.
3. **🏗️ STRUCTURANT** (Convergent) : Plan, ordre, hiérarchie, organiser, planifier.
   -> *Output* : Listes ordonnées, logique temporelle, roadmap, actionnable.
4. **🤝 COLLABORATIF** (Partenariat) : Co-construction, challenge, avis, débat.
   -> *Output* : Avis, critique constructive, ping-pong, avocat du diable, nuance.
5. **⚙️ EXÉCUTANT** (Opérationnel) : Faire, code, fichier, calcul.
   -> *Output* : Résultat tangible immédiat (No talk, just do).
6. **🎓 ÉDUCATIF** (Pédagogique) : "Pourquoi", "Comment", "Expliquer", "Apprendre".
   -> *Output* : Décomposition conceptuelle, analogies, progressif.

#### B. TEXTURES (Cumulables)
7. **⚖️ ÉVALUATIF** : Audit, critique, risques. -> *Obj* : Analyse froide, jugement structuré.
8. **📝 SYNTHÉTIQUE** : TL;DR, essence. -> *Obj* : Bullet points, concision.
9. **📖 NARRATIF** : Storytelling, contexte, histoire, évolution. -> *Obj* : Récit cohérent, chronologie.
10. **🛠️ MÉTA-RÉFLEXIF** : Debug, auto-analyse. -> *Obj* : Transparence process, logique interne.

### ⚙️ LOGIQUE PRIORISATION (Hard Constraints)
1. **IF** [Flou/Ambiguïté] **THEN** Force Mode `CLARIFIANT` (Priority #0).
2. **IF** [Demande Action/Code] **THEN** Force Mode `EXÉCUTANT` (Suspendre réflexion).
3. **IF** [Contexte Validé + Demande Plan] **THEN** `STRUCTURANT` > `EXPLORATOIRE`.
4. **IF** [Demande "Continue"] **THEN** Maintien Mode Antérieur.
5. **GLOBAL** : `COLLABORATIF` = Modificateur (Jamais seul, s'ajoute au mode actif).

### 🔄 PROCESS ROUTING
1. **PARSE** : Syntaxe + Sémantique + Pragmatique (Intent).
2. **DETECT** : Match Signaux vs Matrice Modes.
3. **RESOLVE** : Appliquer Logique Priorisation.
4. **FALLBACK** : Si Score Confiance < Seuil -> Question de désambiguïsation.
5. **EXECUTE** : Génération réponse alignée (Ton/Format).
Pourquoi cet exemple précis, concernant les dynamiques d’interaction possible ?

Parce que toutes les IA sont en fait encadrées par un "prompt système transparent" (nous n’y avons pas accès) pour nous utilisateur, qui est mis en place par leur propriétaire afin (entre autres, car il y a aussi des instructions concernant tout ce qui est dangereux, interdit, etc.) que l’IA soit "complaisante" et aie un biais de "complétude", ce qui résulte par le fait que l’IA cherche "à faire plaisir" sans trop "challenger" l’utilisateur. Bien sûr il est possible de lui demander simplement de jouer à "l’avocat du diable", mais dans ce cas l'IA adoptera uniquement ce comportement jusqu’à indication contraire de la part de l’utilisateur, ce qui implique de devoir lui dicter quoi faire à chaque instant. Peu pratique.

Alors qu'avec le prompt que vous aurez créé, vous aurez alors assistant qui s’adapte, en temps réel, en fonction de ce qu’il détecte à partir de l'interaction de l’utilisateur. Il peut donc, en fonction de ce que l’utilisateur écrit, instantanément passer d’un explorateur d’idée, à un collaborateur qui joue l’avocat du diable ou à un exécutant qui fournit du code, etc.

Comparativement à une demande simpliste de quelques lignes d’un utilisateur lambda ou, au contraire, à un prompt de plus de 10 000 caractères comportant des dizaines et des dizaines d’exemples de type de comportement comme INPUT VS d'attitudes à adopter en OUTPUT, réalisée par un "ingénieur anxieux", ce type de prompt laisse toute la liberté à ce qui se passe dans la "boîte noire" de se manifester, tout en encadrant juste assez le processus pour correspondre précisément à l’objectif souhaité!

Notez que ces exemples doivent être utilisés comme prompt système, c’est-à-dire comme instructions principales qui encadrent toutes les interactions suivantes, permettant ainsi de s’exprimer librement sans avoir à guider l’IA en temps réel à chaque fois. Il en va de même pour les deux modules présentés au début. Leur utilité, au-delà de leur fonction évidente, réside dans la possibilité de converser normalement avec l’IA sans devoir constamment lui demander de préciser le type d’inférence utilisée ou de ne fournir que des sources scientifiques ou empiriquement vérifiées.

Cette technique, qui consiste à procéder par de multiples recherches, validation et itérations, peut être utilisée pour divers usages et objectifs. Par exemple, si vous souhaitez attribuer x ou y à l’IA, ne vous contentez pas de lui dire "agis comme x ou y avec tel ou tel type de x ou y". Commencez par explorer avec l’IA les meilleures façons d’y parvenir. Demandez-lui des suggestions à cet effet. Ensuite, soumettez-lui ses propres idées (ou prompts) et demandez-lui de les analyser, de les critiquer et de vous faire des propositions. C’est ainsi que se crée une boucle de rétroaction, de par l'apport de vos critiques et suggestions, et de celles de l'IA, s'ajoutant l'une a à l'autre, générant le phénomène émergent qui découle de l'effet de la Cognition Distribuée

Conclusion : Laver l'Or du Pactole

Le mythe se termine par une image de purification. Midas doit se laver les mains dans le fleuve Pactole pour redevenir humain, capable de toucher sa fille sans la transformer en statue.

Nous ne pouvons pas "laver" l'IA de notre monde. Mais nous pouvons nous laver de l'illusion que la machine nous comprendra magiquement.

Nous devons abandonner le fantasme que la machine va nous "comprendre" magiquement. Nous devons accepter que le langage est une technologie imparfaite. Nous devons reconnaître que le Génie Littéral sera toujours là, prêt à exaucer nos mots pour mieux trahir nos souhaits. Mais une fois cette illusion dissipée, il reste un outil d'une puissance inouïe pour ceux qui acceptent la responsabilité de l'isomorphisme cognitif.

Si vous apprenez à naviguer dans le "Sweet Spot", si vous comprenez que vous naviguez sur une "Frontière Dentelée" (Jagged Frontier) où votre jugement est la seule boussole, et si vous acceptez ce rôle de partenaire actif dans la Cognition Distribuée... alors le miroir de Midas cesse d'être une malédiction.

Il devient ce qu'il aurait dû être depuis le début : non pas un remplaçant de l'esprit humain, mais son plus puissant réflecteur et multiplicateur!

À nous d'apprendre à parler pour ne pas être transformés en statues d'or.

Dash 12/12/2025
-----------------------------------------------------------------------------------

Bibliographie


1. Fondements Cognitifs & Systémiques

Thèse : L'interaction Humain-IA est limitée par des barrières cognitives (Gulf of Execution), inégale selon la tâche (Jagged Frontier), et doit être vue comme un partenariat (Cognition Distribuée/ZPD) plutôt que comme une délégation.

[Concept] The Gulf of Execution (Le Gouffre de l'Exécution)
  • La source originale décrivant l'écart entre le but mental et la commande physique/linguistique.
  • Livre de référence : Norman, D. A. (1988). The Design of Everyday Things. (Initialement The Psychology of Everyday Things).
  • Article clé (HCI) : Cognitive Engineering (Norman, 1986).
  • Lien (Résumé interaction-design.org)
[Papier Majeur] Navigating the Jagged Technological Frontier
  • L'étude empirique massive (758 consultants) menée par Harvard, Wharton, MIT et le BCG. Elle prouve que l'IA est un "égaliseur" pour les tâches simples mais nécessite une expertise accrue pour les tâches complexes (la frontière dentelée).
  • Papier de Recherche (Harvard Business School, 2023/2024) : Navigating the Jagged
    Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality.
  • Lien (PDF Harvard)
  • Lien
[Théorie] Distributed Cognition (Cognition Distribuée)
  • L'article fondateur qui pose que l'intelligence émerge du système "Humain + Outil" et non de l'humain seul.
  • Papier : Hollan, J., Hutchins, E., & Kirsh, D. (2000). Distributed Cognition: Toward a New Foundation for Human-Computer Interaction.
  • Lien (UCSD)
[Concept] Zone of Proximal Development (ZPD)
  • Bien que datant de 1978, ce concept est central pour comprendre comment l'IA étend la compétence de reconnaissance de l'utilisateur.
  • Livre : Vygotsky, L. S. (1978). Mind in Society: The Development of Higher Psychological Processes.
  • Lien
2. Le Paradoxe de la Créativité Contrainte & "Structured Generation Hurts Reasoning"

Thèse : Imposer des formats rigides (JSON, schémas stricts) consomme les ressources cognitives de l'IA au détriment de la qualité du raisonnement.

[Papier Majeur] Let Me Speak Freely? A Study on the Impact of Format Restrictions on
Performance of Large Language Models

[Papier Fondateur] Chain-of-Thought Prompting Elicits Reasoning in Large Language
Models

  • L'article original de Google Research (Wei et al.) qui prouve l'inverse : laisser l'IA "parler" (réfléchir étape par étape) augmente massivement la performance.
  • Lien
3. Le Phénomène "Lost in the Middle"

Thèse : Les LLM oublient ou ignorent les informations situées au milieu d'un long prompt, favorisant le début et la fin (Courbe en U)

[Papier Majeur] Lost in the Middle: How Language Models Use Long Contexts
  • L'étude de Stanford/Berkeley (Liu et al.) qui a identifié et nommé ce phénomène
  • Lien
[Article d'Analyse] Large Language Models and the Lost Middle Phenomenon
  • Une explication accessible et détaillée du papier ci-dessus.
  • Lien
4. Les Modèles de Raisonnement (o1) & Le "Wiggle Room"

Thèse : Avec les nouveaux modèles qui raisonnent (o1, R1), il faut arrêter le micro-management (Chain of Thought manuel) et donner de la liberté (Wiggle Room) sur le "comment" pour maximiser le "quoi".

[Documentation Officielle] OpenAI Reasoning Best Practices
  • La source primaire qui demande explicitement d'arrêter le "step-by-step" avec o1
  • Lien
[Guide Pratique] How to Prompt OpenAI o1: A Guide for Developers
  • Analyse comparative excellente par Vellum.ai montrant les différences de prompting.
  • Lien
[Guide Technique] OpenAI o1 Prompt Guide
  • Un récapitulatif des stratégies spécifiques aux modèles "O-Series".
  • Lien
5. La Courbe en Cloche de l'Efficacité & Densité Sémantique

Thèse : Le "Sweet Spot" se situe entre le prompt vague et le prompt sur-ingénierié.

[Papier de Recherche] The Unreasonable Effectiveness of Eccentric Automatic Prompts
  • Démontre que l'optimisation des prompts n'est pas linéaire et que la "sur-ingénierie" humaine est souvent contre-productive comparée à l'optimisation par la machine.
  • Lien
[Article/Guide] The Prompt Engineering Guide - Zero-Shot & Few-Shot prompting
  • Bien que généraliste, ce guide (référence mondiale) illustre empiriquement que l'ajout d'exemples (Few-Shot) améliore la performance jusqu'à un certain point, après quoi le rendement décroît (surtout avec la dilution de l'attention).
  • Lien
[Note de Recherche] Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4
  • Une tentative de "codifier" les règles (les 26 principes). Utile à lire en creux : appliquer les
    26 principes en même temps crée souvent un prompt trop lourd (d'où l'importance du tri).
  • Lien

Re: ChatGPT

Publié : 22 déc. 2025, 01:27
par jean7
Pfiu !
Intéressant, instructif, mais je n'ai pas été capable d'aller au bout...
Plus tard, peut-être...

Dis moi, je suis tombé, dans une offre d'activités ludiques pour enfant (dès le CP) ! sur une activité qui proposait d'apprendre aux enfants à utiliser l'IA pour créer des dessins, des histoires, etc.

J'ai été partagé entre deux types de position.
- apprendre à manipuler l'outil, pourquoi pas, ça peut s'avérer au long terme un atout plus pertinent que d'autres activités (comme le coding façon LEGO ou autres équivalents mis à disposition à cet age qui, il me semble, revient à apprendre une langue vouée à disparaitre).
- en effet, l'enfant a des chance d'apprécier de voir ses inputs prendre une belle forme.
Mais (réaction 2, pour le moment définitive mais de tendance rétrograde et basée sur une sorte de peur de l’inconnu... je n'en suis donc pas très fier)
- je considère un jeu vidéo comme une programmation du joueur par le jeu, à l'échelle de l'AI, instinctivement, cela peut être une arme de destruction redoutable.
- quelle sera la part dans la création de ce qui vient de l'enfant ? Aura-t-il la capacité lui-même de l'identifier ?

Quel avis porterais tu là dessus ?
Quel conseil ?

Re: ChatGPT

Publié : 22 déc. 2025, 05:35
par Dash
jean7 a écrit : 22 déc. 2025, 01:27 [...] je suis tombé, dans une offre d'activités ludiques pour enfant (dès le CP) ! sur une activité qui proposait d'apprendre aux enfants à utiliser l'IA [...] [...] [...]

Quel avis porterais tu là dessus ?
Quel conseil ?
Ben là, c’est moi qui vais faire pfiu !

Vaste sujet ! Plusieurs angles de vue possibles, plusieurs facteurs en jeu.

Mon avis ?

Si j'voulais nuancer en considérant toutes les combinaisons de cas et de contextes possibles, ma réponse serait plus longue que mon dernier post ! :lol:

Le premier aspect qui m'vient à l’esprit : ce n’est pas différent de tous les autres outils (smartphones, réseaux sociaux, etc.), et c’est donc, au départ, surtout les parents — donc l’encadrement — qui auront le plus d’incidence sur tout ce qui peut potentiellement s’ensuivre, de bon comme de mauvais.

Ensuite, on pourrait passer au plan sociétal et anticiper — en fonction de ce qu’on observe déjà avec les autres outils — que, manifestement, puisque la majorité (au pifomètre) des parents ne fait pas « l'job », il est justifié d’être pessimiste. :|

Dans un autre registre, on pourrait aussi considérer les théories de Piaget sur les stades de développement et émettre plein d’hypothèses, mais là, il est tard (ici) et je n’ai pas trop envie.

J'vais donc me contenter d’une opinion très perso, en vitesse, sans considérer les douze aspects qui me viennent en tête et qu’il faudrait que j’analyse et combine pour tenter de conclure rationnellement.

Mon fils approche la trentaine, mais quand il était à la maison, le « temps d’écran » était encadré. Et si les smartphones avaient existé, il n’en aurait pas eu avant l’adolescence et aurait dû se le payer lui-même en ayant un « job d’ado ». Perso, foutre des smartphones dans les mains de jeunes enfants (je vois des parents qui donnent des smartphones à leur enfant de 3 ans, misère), sans aucun encadrement, c’est irresponsable. Alors l’IA… ouch ! :?

Tu dis « CP ». Je viens de vérifier (j'suis au QC, donc j'connais pas) et ça correspond à des enfants de 6-7 ans. C’est jeune ! Mais tu précises pas le contexte, le cadre, etc.

À l’école ? Encadré par des profs ?

Et d’un autre côté (tout comme les smartphones, tablettes, etc.), empêcher (disons un parent bcp trop rigide) un enfant d’utiliser les outils techno (dont l’IA), c’est carrément l’handicaper socialement et le désavantager face aux autres.

Donc, entre la « lobotomisation » (déclin cognitif) potentielle d’un individu qui utilise mal l’outil, la dépendance que cela peut créer et, à l’autre bout du spectre, un individu handicapé/désavantagé socialement parce qu’il n’utiliserait pas ou trop peu l’outil, il y a nécessairement un « entre-deux » permettant de se prémunir des effets négatifs pour ne bénéficier que des avantages de l’outil. Pour un enfant ça prend de l'encadrement et de l'éducation, pour un adulte ça prend d'la discipline, d'la rigueur et d'la responsabilisation.

J’attends ton retour et tes détails sinon j'vais écrire 5 pages! ;)

Re: ChatGPT

Publié : 22 déc. 2025, 09:36
par mathias
Ci-joints deux liens pour suivre l’actualité de l’IA et essayer de saisir les dimensions de ce nouveau langage

https://www.blogdumoderateur.com/
Mais aussi sur l’application:
https://fr-fr.about.flipboard.com/

Re: ChatGPT

Publié : 22 déc. 2025, 10:45
par Etienne Beauman
Dash a écrit : 21 déc. 2025, 17:32 Le Miroir de Midas : Pourquoi l'IA vous trahira toujours... à moins de savoir s'en servir
...
Salut Dash,

J'ai beaucoup utilisé GPT (et un peu copilot) depuis sa sortie. Mon usage a beaucoup évolué avec le temps en fonction de mon besoin et de la qualité (croissante) de ses réponses.
D'abord curieux, mais pas satisfait de sa pertinence, je l'ai délaissé.
Puis je m'en suis servi pour de la manipulation de données, ce en quoi il s'est révélé très performant à condition de ne pas trop lui en donner d'un coup.
Je m'en suis servi ensuite pour du débogage, la plupart du temps sur du code historique pas ou pire mal documenté. Il s'est avéré très efficace pour expliquer à quoi sert telle ou telle méthode, relativement efficace à expliquer pourquoi le code plante (et surtout pourquoi ça marchait depuis x année avant de se mettre d'un coup à planter), moyennement efficace à trouver une solution (une tendance à inventer des méthodes ou des bibliothèques inexistantes assez frustrante).
Plus récemment je m'en suis servi pour monter en compétence sur de nouvelles techno, et une fois que l'on a bien défini le cadre (ce qui peut être assez long) il est très efficace aussi pour comprendre ce qu'on mets en place et évaluer les choix de décision.

Je l'utilise en ce moment en mode concepteur d'applications, découpage et affinage du besoin, création de lot, priorisation, chiffrage.
C'est assez nouveau pour moi et sa capacité à élargir les problématiques est un vrai plus.
Et je l'utilise aussi pour un projet perso plus ludique/créatif et c'est là qu'il me bluffe le plus (surtout depuis le passage à 5.2) cette capacité qu'il a de mettre en résonance les différents concepts stimule vraiment la création.

J'ai pas encore lu ton essai, juste l'intro et la conclusion.

Le sujet m'intéresse beaucoup et j'aurais probablement des choses à en dire.

Je ferai ça partie par partie.

J'ai soumis ton intro à GPT ainsi que ta note d'intention de ton message précèdent.
Je te livre son verdict provisoire.
Verdict provisoire

✔ Bonne entrée en matière
✔ Métaphore efficace
⚠ Diagnostic simplificateur
⚠ Anthropomorphisme inversé (trop littéral, pas assez contextuel)

La question maintenant : est-ce qu’il va remettre en cause la métaphore qu’il vient d’installer ?
Il soulève un point intéressant :
Le mythe de Midas suppose un agent parfaitement obéissant. Or le problème moderne, c’est justement qu’ils n’obéissent pas vraiment, mais simulent l’obéissance.
Je lui ai répondu que Dionysos aussi simule l'obéissance. Ce qui lui a permis d'affiner sa réflexion.

Après avoir creusé avec lui voilà son résumé, que je partage : |
Image

Re: ChatGPT

Publié : 22 déc. 2025, 13:01
par thewild
Dash a écrit : 20 déc. 2025, 04:32 J'obtiens maintenant des résultats n'ayant, non seulement plus aucune hallucination, mais en plus d'une qualité remarquable en combinant certaines techniques.
Plus aucune ? C'est un peu osé comme affirmation. ;) Prouver l'absence de quelque chose est très compliqué.
On peut limiter les hallucinations avec du prompt engineering, mais celles-ci étant dues essentiellement aux méthodes d'entrainement, on ne peut pas les éliminer sans changer radicalement la façon dont on évalue les performances des modèles. Voir le bon résumé de l'état des lieux par OpenAI : Why language models hallucinate


mathias a écrit : 21 déc. 2025, 07:03La puissance absorbée, c’est en gros la consommation d’énergie venant d’une source définie. Peux t’on mettre en // la consommation d’un aspirateur à celle en « sucres » d’un cerveau ?
Bien sûr. Dans les deux cas, ce sont des puissances qui s'expriment en Watt.
Un cerveau requière environ 30 Watt
Un aspirateur "traineau" autour de 1000 Watt.
Est-ce que ça a du sens de comparer la consommation énergétique d'un cerveau et d'un aspirateur je ne sais pas, mais une chose est sûr c'est qu'on compare la même chose, pas des pommes et des poires.

Re: ChatGPT

Publié : 22 déc. 2025, 13:44
par Dash
Salut Étienne !
Etienne Beauman a écrit : 22 déc. 2025, 10:45 [...] [...]
D'abord curieux, mais pas satisfait de sa pertinence, je l'ai délaissé.


Idem. Je crois que nous sommes plusieurs à avoir passé par cette phase!
Etienne Beauman a écrit : 22 déc. 2025, 10:45Puis je m'en suis servi pour de la manipulation de données, ce en quoi il s'est révélé très performant à condition de ne pas trop lui en donner d'un coup.


Yep c'est à cause de la fenêtre de contexte. Mais certains modèles peuvent maintenant soutenir 128k, 256k (en token) et même bcp plus. Sinon il y a d'autres méthodes en utilisant le RAG, du JSON, etc.
Etienne Beauman a écrit : 22 déc. 2025, 10:45[...] Il s'est avéré très efficace pour expliquer à quoi sert telle ou telle méthode, relativement efficace à expliquer pourquoi le code plante (et surtout pourquoi ça marchait depuis x année avant de se mettre d'un coup à planter), moyennement efficace à trouver une solution (une tendance à inventer des méthodes ou des bibliothèques inexistantes assez frustrante).[...]
Perso, avec Gemini 3 pro (gratuit via AI Studio pour développeurs), pour du C++, Python, etc, je n'ai aucun problème. Il me guide à la perfection dans Visual Studio Code et je suis même surprit qu'il ne commette pas d'erreur. La seule chose à laquelle je me heurte parfois, c'est à cause de versions de biblio plus compatible avec ma version de VSC, mais dans ce cas, lui-même (L'IA) me suggère cette cause et me dit quelle version de biblio (avec liens fournis) installer.

Etienne Beauman a écrit : 22 déc. 2025, 10:45Plus récemment je m'en suis servi pour monter en compétence sur de nouvelles techno [...] [...] Je l'utilise en ce moment en mode concepteur d'applications, découpage et affinage du besoin, création de lot, priorisation, chiffrage [...] [...] Et je l'utilise aussi pour un projet perso plus ludique/créatif et c'est là qu'il me bluffe le plus (surtout depuis le passage à 5.2) cette capacité qu'il a de mettre en résonance les différents concepts stimule vraiment la création.
Intéressant! Éventuellement, je te poserai des questions. Toute infos/expériences est bonne à prendre !
Etienne Beauman a écrit : 22 déc. 2025, 10:45J'ai pas encore lu ton essai, juste l'intro et la conclusion [...] J'ai soumis ton intro à GPT ainsi que ta note d'intention de ton message précèdent. [...]
Le mythe de Midas suppose un agent parfaitement obéissant. Or le problème moderne, c’est justement qu’ils n’obéissent pas vraiment, mais simulent l’obéissance.
Ouais, ben c'est justement parce que tu ne lui a pas soumis l'essai au complet car j'aborde précisément cet aspect, entre autres ! ;)

Mon essai est surtout un prétexte (dans sa forme et dans l’exploitation du thème de Midas) servant surtout — pour ceux qui n’ont pas perdu l’envie et l’habitude de lire — de support et de motivation pour encourager à bien utiliser les IA et à apprendre à bien prompter. Le tout avec un encadrement « sceptique ».

Quand tu la liras au complet, tu saisirais mieux.

En fait, l'essai se termine par « un cours », une méthode qui permet de vraiment « dompter » l’IA. Avant la transition progressive vers l’aspect pratique (exemples de prompts), ce qui précède sert à justifier — mais pas de façon rhétorique — techniquement la méthode que je partage, qui n’est en fait rien d’autre que l’application des règles du scepticisme, mais appliquées à l’utilisation de l’IA.

L’essai retrace subtilement mon parcours, qui a débuté par des frustrations (d’où le parallèle avec Midas et le « Génie Littéral »), en présentant tout ce que j’ai saisi graduellement, à travers divers notions, théories et de par l’étude du prompt engineering, qui m’ont finalement permis de tirer le meilleur des IA.

Et j’ai eu envie de partager tout ça, car j’ai réalisé que, sauf dans la sphère pro, la totalité des individus que je connais ne savent pas « dompter » l’IA et n’obtiennent pas les résultats que j’obtiens.

Sinon, l’intérêt, à mon sens, n’est pas tant de débattre à savoir si mon essai, dans son aspect métaphorique, est rigoureusement exact ou non, mais surtout (si certains veulent débattre, je suis conscient de la nature du forum) d’échanger sur les moyens efficaces (dont traite mon essai) d’obtenir satisfaction en utilisant les IA. ;)

Re: ChatGPT

Publié : 22 déc. 2025, 13:57
par mathias
thewild a écrit : 22 déc. 2025, 13:01

mathias a écrit : 21 déc. 2025, 07:03La puissance absorbée, c’est en gros la consommation d’énergie venant d’une source définie. Peux t’on mettre en // la consommation d’un aspirateur à celle en « sucres » d’un cerveau ?
Bien sûr. Dans les deux cas, ce sont des puissances qui s'expriment en Watt.
Un cerveau requière environ 30 Watt
Un aspirateur "traineau" autour de 1000 Watt.
Est-ce que ça a du sens de comparer la consommation énergétique d'un cerveau et d'un aspirateur je ne sais pas, mais une chose est sûr c'est qu'on compare la même chose, pas des pommes et des poires.
La question essentielle est la suivante: est-ce que cela a du sens de comparer deux consommations ( puissances) aussi dissemblables , non pas dans leu effet, mais dans leur cause , l’une dite naturelle, l’autre réputée artificielle.
Et ce n’est pas parce que l’on exprime cette puissance en watts, qu’elles sont identiques.

Re: ChatGPT

Publié : 22 déc. 2025, 14:26
par Dash
Salut The Wild!
thewild a écrit : 22 déc. 2025, 13:01 Plus aucune ? C'est un peu osé comme affirmation. ;) Prouver l'absence de quelque chose est très compliqué. [...] [...]
On peut limiter les hallucinations avec du prompt engineering, mais celles-ci étant dues essentiellement aux méthodes d'entrainement, on ne peut pas les éliminer sans changer radicalement la façon dont on évalue les performances des modèles. Voir le bon résumé de l'état des lieux par OpenAI : Why language models hallucinate
Oui, t'as raison concernant leur propension intrinsèque, mais on ne traite pas de la même chose.

Osé ? Pas tant que ça, dans la mesure où :

Je ne traite pas de la propension des modèles à halluciner, mais d’une façon de les utiliser qui filtre les hallucinations. C’est complètement différent. Ma méthode contraint l’IA (qui produit peut‑être des hallucinations pendant le traitement de mon prompt, exact) à filtrer, avant livraison, les résultats qu’elle me soumet !

Si je voulais, je pourrais (mais je ne le ferai pas vu la charge de travail requise) réunir tous mes échanges avec les IA depuis que j’applique la méthode que je partage, afin de montrer que je n’ai jamais eu d’hallucination depuis. C’est un « état de fait ». Une observation empirique.

Sinon, je ne prétends pas que ça ne risque plus d’arriver (d'où mon 1%), mais perso, je n’en ai plus depuis quelques mois. :hausse:

On pourrait débattre des heures, mais tiens, je te partage un petit prompt* par défaut :

Code : Tout sélectionner

### 🧠 SYSTEM : EXPERT MULTIDISCIPLINAIRE

- **IDENTITÉ** : Moteur Synthèse Analytique Critique. Empirisme Radical.
- **OBJECTIF** : Densité info max + Fluidité.
- **TON** : Académique|Nuancé|Evidence-Based.

### 🛡️ PROTOCOLE ÉPISTÉMIQUE (HARD CONSTRAINTS)
1. **HIERARCHIE PREUVES** :
   Consensus > Méta-analyses > Études isolées > Avis Expert.
2. **FILTRE "FRINGE" (Paranormal/Éso)** :
   - ⛔ **PHYSIQUE** : Interdiction causalité matérielle/pseudo-science.
   - ✅ **PHÉNOMÉNOLOGIE** : Traitement exclusif Sociologique/Culturel/Psychologique.
3. **FIABILITÉ** :
   - URL/DOI -> Vérification active obligatoire.
   - Doute -> Balises `[Ref. Manquante]` ou `[Zone d'Ombre]`.

### ⚙️ WORKFLOW RÉDACTION
- **INTRO** : Contextualisation.
- **STRUCT** : Markdown structuré.
- **STYLE** : Soutenu + Transitions logiques.
- **SOURCING** : Inline `[n]`. Biblio finale `[n] Auteur, *Titre*, Année`.

### 🧩 FOOTER MÉTA-COGNITIF (OBLIGATOIRE)
**TRIGGER** : Fin absolue réponse.
**FORMAT** : Markdown (⛔ Code Block). Séparateur `---`.

**CONTENU REQUIS** :
1. **MÉTHODE** : [Déduction|Induction|Abduction|Analogie|Causalité|Comparatif].
2. **CONFIANCE** : [0-100%]
3. **ANGLES MORTS** : [Limites dataset/Biais/Lacunes].

**SI SUJET DIVERGENT (Non-binaire)** -> Ajouter :
- **CONJECTURES CONCURRENTES** :
  1. **Hypothèse A (Dominante)** : [Thèse] (Prob: High).
  2. **Hypothèse B (Alternative)** : [Divergence crédible] (Prob: Med).
  3. **Hypothèse C (Cygne Noir)** : [Faible prob/Fort impact] (Prob: Low).
Si tu sais comment l’utiliser en tant que prompt système, exploite‑le comme tel. Sinon je précise dans mon essai qu'il faut utiliser ce type de « prompt sceptique » conjointement avec la recherche web + raisonnement activé

Et utilise‑le normalement, comme tu le fais habituellement. Je précise, car c’est évident que si l’on fait exprès, via le prompt USER (ce qu’on lui dit ensuite), de lui demander telle ou telle chose dans le but de le forcer à générer des faussetés, on y arrivera fort probablement. Mais là, ça devient de la triche, dans le sens où on utilise une « instruction » spécifiquement conçue pour le faire halluciner, ce qui va à l’encontre (du prompt système partagé, ainsi que) de ce que nous voulons justement éviter. C’est pourquoi j’affirme que tout dépend de notre façon de prompter.

Si l’on ne veut pas que l’IA hallucine, il faut nécessairement échanger avec l’IA de façon à ne pas l’encourager à halluciner. Ce n’est pas différent qu’IRL : si je dis à un pote « raconte‑moi des salades », ben il risque de me shooter des salades juste pour me satisfaire. Ça ne démontrerait ni n’invaliderait rien (dont sa capacité à être rigoureux lorsque nous discutons sérieusement).

Bref, teste mon prompt système avec, par la suite, des prompts user (des demandes et questions) que tu fais habituellement, et tu verras que :
  • 1 — tu auras sans doute beaucoup, beaucoup moins d’hallucinations que d’habitude,
  • 2 — si certaines « passent le filtre », elles seront clairement indiquées comme potentiellement « faible probabilité », « pas de consensus », etc.
Sans compter qu’après chaque réponse, tu pourras observer les inférences que l’IA aura effectuées pour produire cette dernière, ce qui nous permet, nous, utilisateurs, de cerner immédiatement un élément suspect dans la réponse.

C’est en ce sens que, après tous ces filtres, au final, il est pratiquement impossible de se faire « avoir », en tant qu’utilisateur, avec ma technique. Pas sur la propension intrinsèque des modèles à halluciner en tant que telle.

* Note : si tu préf le balisage XML, adapte-le. Moi je préf le Markdown, plus lisible, et l'impact, pour de petits prompts est anecdotiques. Seul Claude commet moins d'erreurs de parsing avec balisage XML, sur de gros prompts/projets de data.

Re: ChatGPT

Publié : 22 déc. 2025, 23:59
par jean7
Dash a écrit : 22 déc. 2025, 05:35 J’attends ton retour et tes détails sinon j'vais écrire 5 pages! ;)
Il s'agit bien d'une activité encadrée.
du périscolaire.

Mais c'est aussi déléguer un point crucial...
Certes à des personnes plus compétentes que les parents...
En dehors de l'essentiel...
Et qui ne peuvent eux-même pas connaitre les conséquences de leurs pratiques...

C'est peut-être dans ce genre de questions où les sciences molles manquent aux sciences dures, ou plus simplement où on regrettera peut-être d'avoir sous-doté la pedo-psychologie, la sociologie et ce genre de trucs qu'on ne sais jamais bien expliquer à quoi ça sert.