L’IA conversationnelle est en train de devenir une interface du quotidien — et c’est précisément pour ça que la question de l’âge ne peut plus rester un simple champ « date de naissance » rempli au hasard. OpenAI vient d’activer un système de prédiction d’âge sur ChatGPT, capable d’estimer si un compte est probablement utilisé par un mineur… et d’ajuster l’expérience en conséquence.
Derrière ce changement, un message clair : l’ère des assistants « grand public » touche désormais à la gouvernance, entre sécurité des jeunes, conformité réglementaire et préparation d’un futur « mode adulte ».
ChatGPT : Une « prédiction d’âge » qui déclenche un mode plus protégé
OpenAI déploie un modèle qui évalue des signaux d’usage et de compte pour estimer si l’utilisateur a moins de 18 ans. Parmi les signaux cités : ancienneté du compte, habitudes d’utilisation (dont les horaires), patterns d’activité et — quand elle existe — l’info d’âge déclarée.
Si le système « pense » qu’un compte est probablement en dessous des 18 ans, ChatGPT bascule automatiquement vers une expérience plus encadrée, en limitant notamment l’accès à des contenus jugés sensibles.
OpenAI indique également que si l’âge est incertain, l’expérience peut « par défaut » devenir plus prudente — autrement dit : quand le doute existe, la plateforme choisit le mode le plus protecteur.
Les garde-fous : ce que ChatGPT restreint pour les comptes suspectés mineurs
Les protections annoncées ciblent explicitement plusieurs catégories :
- violence graphique/gore
- défis viraux susceptibles d’encourager des comportements risqués
- roleplay sexuel, romantique ou violent
- contenus liés à l’automutilation
- contenus favorisant idéaux corporels extrêmes, régimes nocifs ou body shaming
Point important : OpenAI insiste sur le fait que les adolescents peuvent toujours utiliser ChatGPT « pour apprendre, créer, poser des questions », mais avec un traitement plus prudent de certains sujets.
Comment corriger une classification… via un selfie (Persona) ?
Forcément, l’angle qui fait réagir : que se passe-t-il si l’IA se trompe et vous classe « moins de 18 ans » ?
OpenAI propose une marche arrière : la vérification d’âge via Persona, un service tiers. Concrètement, l’utilisateur peut confirmer son âge dans les réglages ; la vérification se fait via selfie (selon les cas, potentiellement avec pièce d’identité, selon les marchés et politiques). OpenAI affirme ne pas recevoir directement le selfie/l’ID, et n’obtenir que l’info utile (date de naissance/résultat de vérification).
OpenAI ajoute aussi un détail intéressant : si vous vérifiez votre âge, la plateforme n’exécute plus la prédiction d’âge sur votre compte (logique : vous devenez « catégorisé » de manière stable).
Pourquoi maintenant : l’ombre d’un « mode adulte » et la pression réglementaire ?
Ce déploiement n’arrive pas dans le vide. Plusieurs sources relient cette mécanique à la préparation d’un « mode adulte » évoqué pour début 2026, qui nécessiterait un système robuste pour éviter qu’un mineur n’y accède.
Autre signal : le calendrier européen. OpenAI indique que l’activation dans l’UE arrivera « dans les prochaines semaines », ce qui suggère des contraintes spécifiques de conformité et de déploiement par région.
Et plus largement, l’industrie entière est poussée vers des mécanismes d’age assurance : la promesse d’IA toujours plus personnelle (et potentiellement plus « adulte » sur certains usages) rend l’âge… incontournable.
La ligne de crête entre protection utile et profilage par comportement
Sur le papier, l’idée a une élégance redoutable : au lieu de demander « quel âge as-tu ? » (et de récolter des mensonges), le système observe des signaux d’usage et applique un mode protecteur quand il faut.
Mais, c’est aussi là que les débats commencent :
- Vie privée : même si OpenAI parle de « signaux » et encadre la vérification via un tiers, l’approche reste une forme d’inférence sur l’identité d’usage — et donc un sujet sensible pour la confiance.
- Faux positifs/faux négatifs : un adulte « jeune » dans son style, ou un ado très « mature » dans ses usages, peut brouiller les cartes. OpenAI reconnaît implicitement que « aucun système n’est parfait » et prévoit une procédure de correction.
- Design par défaut : le fait de « basculer vers plus de restrictions en cas d’incertitude » est cohérent côté sécurité, mais peut produire un effet frustrant pour certains adultes — surtout si la vérification devient la seule sortie confortable.
En réalité, OpenAI fait un pari : mieux vaut contrôler l’accès en amont (avec des garde-fous parfois trop stricts) que d’assumer le risque d’une IA qui laisserait passer des contenus sensibles à un public mineur — un risque juridique, mais aussi un risque réputationnel.
Concrètement, qu’est-ce que ça change pour vous ?
Si vous êtes adulte, vous pourriez ne rien voir… sauf si le modèle vous classe « probablement mineur », auquel cas vous basculez dans l’expérience protégée et devrez vérifier votre âge pour revenir à une expérience moins restreinte. Si vous avez moins de 18 ans, l’expérience devient plus encadrée sur certains sujets (violence graphique, roleplay sexuel/violent, etc.).
Et si vous êtes dans l’Union européenne, le déploiement est annoncé dans les prochaines semaines plutôt que « immédiat ».



