OpenAI veut « traiter les adultes comme des adultes », mais le bouton qui déverrouillerait vraiment cette promesse reste introuvable. D’après plusieurs sources, OpenAI repousse une nouvelle fois le lancement de son « mode adulte » de ChatGPT — une version moins restrictive de ChatGPT réservée aux utilisateurs vérifiés majeurs — et le calendrier glisse encore.
Au-delà d’un simple retard produit, l’épisode révèle un dilemme structurel : comment ouvrir la vanne (érotisme, violence graphique, sujets « sensibles ») sans ouvrir la boîte de Pandore (juridique, réputation, partenaires, conformité) ?
Ce que OpenAI promettait… et ce qui bloque
Le principe du mode adulte est clair : assouplir certaines limites de contenu pour les comptes capables de prouver qu’ils ont plus de 18 ans. Sam Altman l’avait explicitement rattaché à un déploiement plus large du « contrôle d’âge », en citant notamment l’érotisme pour adultes vérifiés.
Sauf que, cette semaine, OpenAI explique repousser le lancement afin de concentrer ses efforts sur des chantiers « plus prioritaires » pour la majorité des utilisateurs — gains d’intelligence, améliorations de personnalité, personnalisation, expérience plus proactive.
Le vrai nœud : la vérification d’âge, un problème « facile en théorie »
OpenAI n’arrive pas les mains vides : en janvier 2026, la société a détaillé une stratégie de prédiction de l’âge pour estimer si un compte est probablement mineur ou majeur, afin d’appliquer des garde-fous adaptés. Et pour la vérification explicite, OpenAI renvoie vers un parcours dédié… qui passe par un prestataire tiers (Persona) pour vérifier l’âge.
Mais, c’est précisément là que tout devient sensible :
- Trop léger, et le contrôle d’âge devient inexploitable (avec risques de mineurs exposés).
- Trop intrusif, et OpenAI s’expose à des critiques de confidentialité, et à des frictions qui feraient fuir les utilisateurs.
L’Europe et le Royaume-Uni compliquent la donne (encore plus)
OpenAI opère mondialement, et la définition de « suffisamment robuste » varie selon les juridictions. Côté UE, la Commission pousse des initiatives de vérification d’âge pour l’accès à des contenus légalement restreints (dont le contenu adulte), dans le cadre des efforts liés à la sécurité en ligne.
Pour OpenAI, le « mode adulte » ne peut donc pas être un simple toggle universel : il faut un dispositif qui tienne à la fois en UX, en compliance, et en communication.
Pourquoi OpenAI ne peut pas se permettre un lancement « à la Grok »
La pression concurrentielle est évidente : des alternatives se positionnent déjà comme moins filtrées. Mais, OpenAI n’a pas le même profil de risque : la marque est devenue synonyme de « IA sûre » pour une partie du grand public, et elle doit composer avec des partenaires et des clients d’entreprise pour qui l’idée d’un mode « R-rated » peut déclencher des alarmes.
OpenAI veut offrir un accès plus permissif aux adultes vérifiés, mais le sujet est explosif et le calendrier n’arrête pas de glisser.
Au vu des signaux (report + focus sur personnalisation/intelligence), le résultat final ressemble moins à un « mode sans filtre » qu’à un mode un peu moins prude, mais juridiquement et réputationnellement soutenable : plus de tolérance sur certains thèmes, mais des interdits durs toujours présents.
En clair : OpenAI veut une porte, pas un gouffre.



