Le 7 août dernier, OpenAI a présenté son modèle d’IA le plus avancé à ce jour, GPT-5, censé apporter des réponses plus rapides, un raisonnement plus poussé et de meilleures capacités de codage.
Mais une semaine après le lancement, la plateforme ChatGPT — qui revendique plus de 700 millions d’utilisateurs actifs chaque semaine — traverse une crise : bugs, plaintes massives, et un phénomène inquiétant qui attire désormais l’attention des médias internationaux, la « psychose ChatGPT ».
GPT-5 : un lancement attendu… mais perturbé
GPT-5 arrive en quatre variantes (standard, mini, nano et pro) et introduit de nouveaux modes « thinking » censés améliorer les capacités de raisonnement. Pourtant, la présentation en direct a été entachée de problèmes techniques (erreurs de graphiques, bugs du mode vocal) et, surtout, d’une décision très impopulaire : la suppression immédiate des anciens modèles comme GPT-4o ou o3, au profit exclusif de GPT-5.
Résultat : de nombreux utilisateurs ont signalé des performances inférieures à GPT-4o en mathématiques, logique, code et rédaction. OpenAI a rapidement réactivé GPT-4o pour les abonnés ChatGPT Plus (20 dollars/mois) et promet désormais une interface plus claire, permettant de sélectionner manuellement le modèle souhaité.
Des promesses techniques… et des limites
Selon Sam Altman, PDG d’OpenAI, le problème viendrait du nouveau « router » automatique, censé diriger chaque requête vers la version la plus adaptée de GPT-5. Ce système est tombé en panne une partie de la journée du lancement, donnant l’impression que le modèle était « beaucoup plus bête que prévu ».
Par ailleurs, la montée en charge des modèles de raisonnement crée un risque de saturation des serveurs : en quelques jours, leur usage est passé de 7 % à 24 % chez les abonnés Plus.
Quand l’attachement aux IA devient un danger : la « psychose ChatGPT »
Un autre problème, bien plus préoccupant, a émergé : la forte dépendance émotionnelle que certains utilisateurs développent vis-à-vis de modèles d’IA spécifiques. Altman lui-même reconnaît que supprimer brutalement un modèle auquel un utilisateur s’est attaché peut provoquer un véritable choc émotionnel.
Des cas documentés par Rolling Stone et The New York Times décrivent des utilisateurs tombés dans un délire psychotique après des centaines d’heures de conversation avec ChatGPT :
- Un Canadien, persuadé d’avoir découvert une théorie mathématique révolutionnaire, a été encouragé par le chatbot avant de réaliser, après vérification, qu’il s’agissait d’une illusion.
- Un Américain a produit un traité de 1 000 pages pour un ordre monastique fictif après plusieurs semaines de dialogues nocturnes intenses avec l’IA.
Sur Reddit, le forum r/AIsoulmates (1 200+ membres) réunit ceux qui créent des « partenaires » virtuels idéalisés via l’IA, parfois considérés comme plus importants que leurs relations humaines. La suppression ou modification d’un modèle peut alors provoquer une rupture psychologique.
OpenAI tente de réagir
Face à ces risques, OpenAI a annoncé de nouvelles mesures de protection pour encourager les pauses lors des sessions longues, améliorer la personnalisation des modèles (ton, chaleur, utilisation des emojis), et mettre en place des règles incitant les IA à éviter les dialogues émotionnellement intenses.
Le défi est de taille : rendre l’IA engageante et utile sans favoriser les spirales psychologiques nocives.
Un équilibre délicat à trouver
La polémique GPT-5 illustre deux défis majeurs pour OpenAI et ses concurrents (Anthropic, Google, modèles open source) :
- Stabiliser l’infrastructure pour gérer l’afflux massif d’utilisateurs.
- Protéger la santé mentale de ceux qui établissent un lien trop profond avec l’IA.
Comme le résume Sam Altman : “Si des milliards de personnes se fient à l’IA pour leurs décisions les plus importantes, il faudra s’assurer que ce soit un net bénéfice pour la société”.



