Depuis quelques semaines, un même constat remonte chez les utilisateurs intensifs : la logique progresse, le code s’améliore… mais la prose se durcit. Plus dense, plus longue, parfois moins agréable à parcourir — surtout dès qu’on demande une explication développée.
Lors d’un town hall développeurs, le CEO d’OpenAI Sam Altman a fini par le reconnaître publiquement. Interpellé sur une écriture jugée « maladroite » et « dure à lire » par rapport à GPT-4.5, il a répondu sans détour : « Je crois qu’on vient de tout gâcher ». Et, il promet que les prochaines itérations GPT-5.x devront redevenir « meilleures à l’écrit » — sans sacrifier les gains techniques.
Le point de friction est apparu quand Ben Hilac (CTO de Raindrop) a expliqué que GPT-4.5 lui semblait être « la première version vraiment forte en écriture », alors que GPT-5 serait plus irrégulier : gros progrès en dev, mais baisse de lisibilité.
Altman ne conteste pas le diagnostic : il l’assume comme un choix de priorisation — et, rétrospectivement, comme une erreur sur l’expérience de lecture.
Pourquoi OpenAI a « choisi le code » : contrainte de ressources et arbitrage produit
La justification avancée est pragmatique : OpenAI aurait été sous contrainte de bande passante/ressources, et a décidé, sur ce cycle, de pousser en priorité : le raisonnement, le coding, et les tâches « style d’ingénierie ». Quitte à laisser d’autres qualités (clarté, naturel, concision) stagner ou régresser.
C’est exactement le type de compromis qui ne se voit pas sur un benchmark — mais se ressent instantanément quand on lit une réponse de 900 mots.
Le cœur du pari : un seul modèle, pas un « mode écrivain » séparé
Altman insiste sur un point stratégique : OpenAI ne veut pas que l’utilisateur choisisse entre un modèle qui code et un modèle qui écrit. L’ambition reste celle d’un système généraliste où l’intelligence « transfère » : la même IA doit pouvoir bâtir un produit et le raconter clairement, dans la même session.
Autrement dit : l’écriture n’est pas un vernis. C’est une fonctionnalité — parce que sans une écriture lisible, même la meilleure solution technique devient pénible à exploiter.
GPT-5.x et les notes de version
OpenAI oriente déjà l’attention vers GPT-5.x comme le lieu où la lisibilité doit remonter, sans « rendre » les gains en raisonnement et en dev. En attendant, la tension est intéressante : les release notes de ChatGPT présentent GPT-5.2 Thinking comme plus « raffiné » sur certains usages (structuration, tâches pro, etc.), alors que la critique des utilisateurs porte sur une autre forme de raffinement : la fluidité de lecture, le rythme, la respiration du texte.
En attendant un vrai rééquilibrage côté modèle, on peut souvent obtenir une sortie beaucoup plus propre avec des contraintes explicites :
- « Réponds en 6–8 phrases, phrases courtes, niveau article »
- « Commence par un résumé en 3 lignes, puis détaille »
- ‘Structure en titres H2, évite les digressions »
- “Donne une version prête à publier, puis une version technique en annexe »
Ce n’est pas magique, mais ça transforme GPT-5 en ce qu’il semble être aujourd’hui : un excellent moteur logique… qui a besoin qu’on lui rappelle le confort du lecteur.



