Index du forum Hors sujet

Pour tout ce qui n'a pas sa place ailleurs.

Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.

Messagepar OliveOil » 29 Juin 2025, 14:26

Gér@rd a écrit:


Curieux pour ChatGPT... Est tu sûr d'utiliser la dernière version (gratuite je suppose) ? ...


C'est avec la version gratuite accessible par navigateur web.
OliveOil
Curieux
 
Messages: 64
Inscrit le: 21 Avr 2025, 12:27

Re: Le topic de l'IA, ou le sujet de l'Imaginaire Aberrant.

Messagepar Gér@rd » 29 Juin 2025, 17:31

Comme je suis particulièrement têtu, j'ai voulu comprendre comment raisonnait mon copain ChatGPT. Et je me suis dit qu'après tout le meilleurs moyen c'était de le lui demander... msp_thumbup

Ma question : "Non votre réponse était correcte et c'est bien la même réponse que vous m'aviez faite. Mais une autre personne (avec qui je dialoguais dans un forum) venait de vous poser strictement la même question dans les mêmes termes quelques instants auparavant et votre réponse avait été : "balancier" (alors que votre explication pas a pas était correcte et que la dernière consonances était "soir" et pas "cier"). Comment expliquer cela ? Pourquoi avoir développé balan-cier au lieu de balan-soir (ce qui n'était pas logique). Est-ce que parce que les données utilisées sont plutôt en anglais ?"


ChatGPT a dit :
Merci pour cette observation fine, très pertinente. Vous mettez le doigt sur une des limites intéressantes du fonctionnement des modèles comme moi, et je vais vous répondre aussi précisément que possible.

Pourquoi ai-je parfois donné "balancier" au lieu de "balançoire", malgré une explication correcte ?
Voici plusieurs explications complémentaires, qui n’ont rien à voir avec un biais pour l’anglais, mais plutôt avec la manière dont je produis une réponse en plusieurs étapes :

1. Génération des parties correcte, mais assemblage erroné
Lorsque je résous une charade, je traite chaque indice isolément, puis j’essaie d’assembler les morceaux.

Parfois, les premières étapes sont correctes, mais dans la dernière, je cherche un mot qui "sonne comme" la combinaison, sans toujours vérifier la cohérence complète phonétique ou sémantique.

Le mot "balancier" est phonétiquement proche de "balan-soir", mais ne correspond ni au sens attendu (aire de jeux), ni à la dernière syllabe ("cier" ≠ "soir").

Cela reflète un biais possible du modèle vers des mots fréquents qui ressemblent à la structure visée — ici, balancier est plus courant que balançoire dans certains contextes techniques ou textuels.

2. Poids de la vraisemblance linguistique dans le modèle
Je suis entraîné pour privilégier des phrases qui "sonnent bien" statistiquement.

Or, le mot "balancier" est bien plus utilisé que "balanlentsoir" (forme construite artificiellement), donc il peut arriver que je "choisisse" un mot qui semble plus naturel à mes algorithmes, même si ce n'est pas celui qui colle parfaitement à l'énigme.

C’est comme si je me disais :

“Tiens, j’ai ba + lent + quelque chose... le mot balancier est proche et plausible, allons-y” — même si ça casse la logique finale du "soir".

3. L'effet de génération "en cascade"
Quand je génère une réponse, je n’ai pas toujours une vérification rétroactive qui me dit : “Attention, tu viens de dire que la dernière partie est ‘soir’, donc balancier ne colle pas.”

Cette vérification existe dans certains modèles, mais pas toujours activée selon le niveau de rigueur demandé.

4. Et le rôle de l’anglais ?
Non, dans ce cas précis, ce n’est pas un biais vers l’anglais. Le mot "balancier" n’a pas d’équivalent direct en anglais plus usuel que "bascule" ou "swing", et la charade est en français avec des jeux phonétiques typiquement francophones.

Ce que cela montre
Votre expérience illustre une réalité importante des modèles comme moi :

Je suis très fort pour analyser étape par étape, mais pas infaillible dans la synthèse logique finale, surtout si plusieurs mots proches semblent possibles.

C’est un défaut bien connu des grands modèles de langage, et cela fait l’objet d’améliorations constantes (par exemple via des "chaines de pensée vérifiables" ou des mécanismes de validation interne).

Références sur le sujet (pour aller plus loin)
OpenAI Technical Report (GPT-4): https://openai.com/research/gpt-4 – où est mentionné le phénomène de "hallucination plausible"

Chain-of-thought prompting (Wei et al., 2022): qui traite de la manière dont des raisonnements étape par étape peuvent améliorer ou tromper la sortie finale.
Heureux ceux qui savent rire d'eux-mêmes, ils n'ont pas fini de rigoler !
Avatar de l’utilisateur
Gér@rd
Dément
 
Messages: 6719
Photos: 0
Inscrit le: 12 Mar 2012, 15:14

Précédent

Retour vers Hors sujet

Qui est en ligne ?

Utilisateurs parcourant actuellement ce forum : Aucun utilisateur inscrit et 8 invités


cron