C'est avec la version gratuite accessible par navigateur web.Gér@rd a écrit :
Curieux pour ChatGPT... Est tu sûr d'utiliser la dernière version (gratuite je suppose) ? ...
Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Comme je suis particulièrement têtu, j'ai voulu comprendre comment raisonnait mon copain ChatGPT. Et je me suis dit qu'après tout le meilleurs moyen c'était de le lui demander...
Ma question : "Non votre réponse était correcte et c'est bien la même réponse que vous m'aviez faite. Mais une autre personne (avec qui je dialoguais dans un forum) venait de vous poser strictement la même question dans les mêmes termes quelques instants auparavant et votre réponse avait été : "balancier" (alors que votre explication pas a pas était correcte et que la dernière consonances était "soir" et pas "cier"). Comment expliquer cela ? Pourquoi avoir développé balan-cier au lieu de balan-soir (ce qui n'était pas logique). Est-ce que parce que les données utilisées sont plutôt en anglais ?"
ChatGPT a dit :
Merci pour cette observation fine, très pertinente. Vous mettez le doigt sur une des limites intéressantes du fonctionnement des modèles comme moi, et je vais vous répondre aussi précisément que possible.
Pourquoi ai-je parfois donné "balancier" au lieu de "balançoire", malgré une explication correcte ?
Voici plusieurs explications complémentaires, qui n’ont rien à voir avec un biais pour l’anglais, mais plutôt avec la manière dont je produis une réponse en plusieurs étapes :
1. Génération des parties correcte, mais assemblage erroné
Lorsque je résous une charade, je traite chaque indice isolément, puis j’essaie d’assembler les morceaux.
Parfois, les premières étapes sont correctes, mais dans la dernière, je cherche un mot qui "sonne comme" la combinaison, sans toujours vérifier la cohérence complète phonétique ou sémantique.
Le mot "balancier" est phonétiquement proche de "balan-soir", mais ne correspond ni au sens attendu (aire de jeux), ni à la dernière syllabe ("cier" ≠ "soir").
Cela reflète un biais possible du modèle vers des mots fréquents qui ressemblent à la structure visée — ici, balancier est plus courant que balançoire dans certains contextes techniques ou textuels.
2. Poids de la vraisemblance linguistique dans le modèle
Je suis entraîné pour privilégier des phrases qui "sonnent bien" statistiquement.
Or, le mot "balancier" est bien plus utilisé que "balanlentsoir" (forme construite artificiellement), donc il peut arriver que je "choisisse" un mot qui semble plus naturel à mes algorithmes, même si ce n'est pas celui qui colle parfaitement à l'énigme.
C’est comme si je me disais :
“Tiens, j’ai ba + lent + quelque chose... le mot balancier est proche et plausible, allons-y” — même si ça casse la logique finale du "soir".
3. L'effet de génération "en cascade"
Quand je génère une réponse, je n’ai pas toujours une vérification rétroactive qui me dit : “Attention, tu viens de dire que la dernière partie est ‘soir’, donc balancier ne colle pas.”
Cette vérification existe dans certains modèles, mais pas toujours activée selon le niveau de rigueur demandé.
4. Et le rôle de l’anglais ?
Non, dans ce cas précis, ce n’est pas un biais vers l’anglais. Le mot "balancier" n’a pas d’équivalent direct en anglais plus usuel que "bascule" ou "swing", et la charade est en français avec des jeux phonétiques typiquement francophones.
Ce que cela montre
Votre expérience illustre une réalité importante des modèles comme moi :
Je suis très fort pour analyser étape par étape, mais pas infaillible dans la synthèse logique finale, surtout si plusieurs mots proches semblent possibles.
C’est un défaut bien connu des grands modèles de langage, et cela fait l’objet d’améliorations constantes (par exemple via des "chaines de pensée vérifiables" ou des mécanismes de validation interne).
Références sur le sujet (pour aller plus loin)
OpenAI Technical Report (GPT-4): https://openai.com/research/gpt-4" onclick="window.open(this.href);return false; – où est mentionné le phénomène de "hallucination plausible"
Chain-of-thought prompting (Wei et al., 2022): qui traite de la manière dont des raisonnements étape par étape peuvent améliorer ou tromper la sortie finale.
Ma question : "Non votre réponse était correcte et c'est bien la même réponse que vous m'aviez faite. Mais une autre personne (avec qui je dialoguais dans un forum) venait de vous poser strictement la même question dans les mêmes termes quelques instants auparavant et votre réponse avait été : "balancier" (alors que votre explication pas a pas était correcte et que la dernière consonances était "soir" et pas "cier"). Comment expliquer cela ? Pourquoi avoir développé balan-cier au lieu de balan-soir (ce qui n'était pas logique). Est-ce que parce que les données utilisées sont plutôt en anglais ?"
ChatGPT a dit :
Merci pour cette observation fine, très pertinente. Vous mettez le doigt sur une des limites intéressantes du fonctionnement des modèles comme moi, et je vais vous répondre aussi précisément que possible.
Pourquoi ai-je parfois donné "balancier" au lieu de "balançoire", malgré une explication correcte ?
Voici plusieurs explications complémentaires, qui n’ont rien à voir avec un biais pour l’anglais, mais plutôt avec la manière dont je produis une réponse en plusieurs étapes :
1. Génération des parties correcte, mais assemblage erroné
Lorsque je résous une charade, je traite chaque indice isolément, puis j’essaie d’assembler les morceaux.
Parfois, les premières étapes sont correctes, mais dans la dernière, je cherche un mot qui "sonne comme" la combinaison, sans toujours vérifier la cohérence complète phonétique ou sémantique.
Le mot "balancier" est phonétiquement proche de "balan-soir", mais ne correspond ni au sens attendu (aire de jeux), ni à la dernière syllabe ("cier" ≠ "soir").
Cela reflète un biais possible du modèle vers des mots fréquents qui ressemblent à la structure visée — ici, balancier est plus courant que balançoire dans certains contextes techniques ou textuels.
2. Poids de la vraisemblance linguistique dans le modèle
Je suis entraîné pour privilégier des phrases qui "sonnent bien" statistiquement.
Or, le mot "balancier" est bien plus utilisé que "balanlentsoir" (forme construite artificiellement), donc il peut arriver que je "choisisse" un mot qui semble plus naturel à mes algorithmes, même si ce n'est pas celui qui colle parfaitement à l'énigme.
C’est comme si je me disais :
“Tiens, j’ai ba + lent + quelque chose... le mot balancier est proche et plausible, allons-y” — même si ça casse la logique finale du "soir".
3. L'effet de génération "en cascade"
Quand je génère une réponse, je n’ai pas toujours une vérification rétroactive qui me dit : “Attention, tu viens de dire que la dernière partie est ‘soir’, donc balancier ne colle pas.”
Cette vérification existe dans certains modèles, mais pas toujours activée selon le niveau de rigueur demandé.
4. Et le rôle de l’anglais ?
Non, dans ce cas précis, ce n’est pas un biais vers l’anglais. Le mot "balancier" n’a pas d’équivalent direct en anglais plus usuel que "bascule" ou "swing", et la charade est en français avec des jeux phonétiques typiquement francophones.
Ce que cela montre
Votre expérience illustre une réalité importante des modèles comme moi :
Je suis très fort pour analyser étape par étape, mais pas infaillible dans la synthèse logique finale, surtout si plusieurs mots proches semblent possibles.
C’est un défaut bien connu des grands modèles de langage, et cela fait l’objet d’améliorations constantes (par exemple via des "chaines de pensée vérifiables" ou des mécanismes de validation interne).
Références sur le sujet (pour aller plus loin)
OpenAI Technical Report (GPT-4): https://openai.com/research/gpt-4" onclick="window.open(this.href);return false; – où est mentionné le phénomène de "hallucination plausible"
Chain-of-thought prompting (Wei et al., 2022): qui traite de la manière dont des raisonnements étape par étape peuvent améliorer ou tromper la sortie finale.
Heureux ceux qui savent rire d'eux-mêmes, ils n'ont pas fini de rigoler !
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Là le véhicule est vraiment bizarre : c'est du steampunk mais qui ne peut à l'évidence ni rouler ni voler (les deux roues avant fallait y penserReno a écrit :![]()
Qu'est-ce que t'as bien pu lui demander pour arriver à lui faire sortir ça ?
Heureux ceux qui savent rire d'eux-mêmes, ils n'ont pas fini de rigoler !
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
En regardant une série de vidéo sur les premiers avions à réaction Français
je me suis pris à rêver d'une uchronie au XIX e siècle (durant la IIIe république), à propos d'une technologie d'avant-garde oubliée.
C'est étonnant, dans l'histoire des inventions, le nombre de voies qui ont été abandonnées. Ça me fascine toujours, et ça excite mon imagination à chaque fois.
je me suis pris à rêver d'une uchronie au XIX e siècle (durant la IIIe république), à propos d'une technologie d'avant-garde oubliée.
C'est étonnant, dans l'histoire des inventions, le nombre de voies qui ont été abandonnées. Ça me fascine toujours, et ça excite mon imagination à chaque fois.
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Ah oui les "Leduc"... Je me souviens de ça dans les années '50 et les actualités au cinéma... C'est vrai que ça faisait vraiment science-fiction (c'était un peu comme l'espadon de Mortimer dans le secret du même nom)...
Je me rappelle même avoir eu étant gosse un Leduc de la marque Solido : une dizaine de centimètre tout métal comme celui ci-dessous (30 € sur Ebay... j'aurais dû garder le mien !). Si ça intéresse des fondus d'aviation on peut en voir un vrai (pas une maquette ou un jouet) au musée du Bourget (faudrait que j'y refasse un tour...).


Copyright Deep silence (Mikaël Restoux) — Own work (Bourget museum, in France)
Je me rappelle même avoir eu étant gosse un Leduc de la marque Solido : une dizaine de centimètre tout métal comme celui ci-dessous (30 € sur Ebay... j'aurais dû garder le mien !). Si ça intéresse des fondus d'aviation on peut en voir un vrai (pas une maquette ou un jouet) au musée du Bourget (faudrait que j'y refasse un tour...).

Copyright Deep silence (Mikaël Restoux) — Own work (Bourget museum, in France)
Heureux ceux qui savent rire d'eux-mêmes, ils n'ont pas fini de rigoler !
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Ben justement, les vidéos en lien sont tournées là-bas.
Je pense que le Snecma C-450 Coléoptère a dû lourdement inspiré les Zorglumobile et Zorgleoptere dans SPIROU


C''est fascinant de découvrir l'existence d'autres propositions, parfois plus performantes (mais trop compliquées et/ou trop coûteuses) mais écartées et oubliées.
Je pense que le Snecma C-450 Coléoptère a dû lourdement inspiré les Zorglumobile et Zorgleoptere dans SPIROU


Dans tous les domaines, on ne connait dans le grand public que les solutions "industrielles/commerciales" que l'histoire a retenu.Untel a écrit :C'est dingue tout ce qu'ils ont essayé.
C''est fascinant de découvrir l'existence d'autres propositions, parfois plus performantes (mais trop compliquées et/ou trop coûteuses) mais écartées et oubliées.
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Aujourd'hui on est loin de cet esprit "pionnier".Reno a écrit :Dans tous les domaines, on ne connait dans le grand public que les solutions "industrielles/commerciales" que l'histoire a retenu.Untel a écrit :C'est dingue tout ce qu'ils ont essayé.
C''est fascinant de découvrir l'existence d'autres propositions, parfois plus performantes (mais trop compliquées et/ou trop coûteuses) mais écartées et oubliées.
On se demande ce que ça pourrait donner sinon.
Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.
Il y a toujours des bricoleurs qui inventent des dingueries, basées sur l'avancement des techniques.
Il y a quelque temps, j'étais tombé là-dessus :
Il y a quelque temps, j'étais tombé là-dessus :




