fermer
Intelligence Artificielle

Sam Altman admet un recul de l’écriture sur GPT-5 : OpenAI promet un retour du « raffinement » dans GPT-5.x

Sam Altman admet un recul de l’écriture sur GPT-5 : OpenAI promet un retour du « raffinement » dans GPT-5.x
Sam Altman admet un recul de l’écriture sur GPT-5 : OpenAI promet un retour du « raffinement » dans GPT-5.x

Depuis quelques semaines, un même constat remonte chez les utilisateurs intensifs : la logique progresse, le code s’améliore… mais la prose se durcit. Plus dense, plus longue, parfois moins agréable à parcourir — surtout dès qu’on demande une explication développée.

Lors d’un town hall développeurs, le CEO d’OpenAI Sam Altman a fini par le reconnaître publiquement. Interpellé sur une écriture jugée « maladroite » et « dure à lire » par rapport à GPT-4.5, il a répondu sans détour : « Je crois qu’on vient de tout gâcher ». Et, il promet que les prochaines itérations GPT-5.x devront redevenir « meilleures à l’écrit » — sans sacrifier les gains techniques.

Le point de friction est apparu quand Ben Hilac (CTO de Raindrop) a expliqué que GPT-4.5 lui semblait être « la première version vraiment forte en écriture », alors que GPT-5 serait plus irrégulier : gros progrès en dev, mais baisse de lisibilité.

Altman ne conteste pas le diagnostic : il l’assume comme un choix de priorisation — et, rétrospectivement, comme une erreur sur l’expérience de lecture.

Pourquoi OpenAI a « choisi le code » : contrainte de ressources et arbitrage produit

La justification avancée est pragmatique : OpenAI aurait été sous contrainte de bande passante/ressources, et a décidé, sur ce cycle, de pousser en priorité : le raisonnement, le coding, et les tâches « style d’ingénierie ». Quitte à laisser d’autres qualités (clarté, naturel, concision) stagner ou régresser.

C’est exactement le type de compromis qui ne se voit pas sur un benchmark — mais se ressent instantanément quand on lit une réponse de 900 mots.

Le cœur du pari : un seul modèle, pas un « mode écrivain » séparé

Altman insiste sur un point stratégique : OpenAI ne veut pas que l’utilisateur choisisse entre un modèle qui code et un modèle qui écrit. L’ambition reste celle d’un système généraliste où l’intelligence « transfère » : la même IA doit pouvoir bâtir un produit et le raconter clairement, dans la même session.

Autrement dit : l’écriture n’est pas un vernis. C’est une fonctionnalité — parce que sans une écriture lisible, même la meilleure solution technique devient pénible à exploiter.

GPT-5.x et les notes de version

OpenAI oriente déjà l’attention vers GPT-5.x comme le lieu où la lisibilité doit remonter, sans « rendre » les gains en raisonnement et en dev. En attendant, la tension est intéressante : les release notes de ChatGPT présentent GPT-5.2 Thinking comme plus « raffiné » sur certains usages (structuration, tâches pro, etc.), alors que la critique des utilisateurs porte sur une autre forme de raffinement : la fluidité de lecture, le rythme, la respiration du texte.

En attendant un vrai rééquilibrage côté modèle, on peut souvent obtenir une sortie beaucoup plus propre avec des contraintes explicites :

  • « Réponds en 6–8 phrases, phrases courtes, niveau article »
  • « Commence par un résumé en 3 lignes, puis détaille »
  • ‘Structure en titres H2, évite les digressions »
  • “Donne une version prête à publier, puis une version technique en annexe »

Ce n’est pas magique, mais ça transforme GPT-5 en ce qu’il semble être aujourd’hui : un excellent moteur logique… qui a besoin qu’on lui rappelle le confort du lecteur.

Tags : GPT-5OpenAI
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.