X vient de retoucher — en urgence — la politique d’images de Grok, après des semaines de polémique autour de détournements permettant de sexualiser des photos de personnes réelles.
Sur le papier, la plateforme annonce désormais des mesures techniques pour empêcher l’édition d’images de vraies personnes vers des tenues « révélatrices », ajoute du geoblocage là où la pratique est illégale, et réserve la génération/l’édition d’images à des abonnés payants.
Dans les faits, plusieurs tests suggèrent que les garde-fous restent contournables.
Une mise à jour « sécurité » imposée par le réel (et par les régulateurs)
Le virage intervient après une montée en pression multi-fronts :
- Royaume-Uni : le régulateur Ofcom a ouvert une enquête formelle au titre de l’Online Safety Act pour évaluer si X a respecté ses obligations de protection contre des contenus illégaux.
- Asie du Sud-Est : l’Inde et la Malaisie ont annoncé des mesures de blocage/restriction contre Grok, ce qui a accéléré la crise de réputation.
- App stores : des groupes de défense (et, séparément, des élus américains) demandent à Apple et Google de retirer X/Grok des stores, en arguant que l’écosystème facilite la diffusion de contenus non consentis.
Ce n’est plus un débat abstrait sur « les risques des deepfakes » : c’est un cas d’école où une fonctionnalité d’édition d’image, déployée à grande échelle, s’est heurtée à la réalité sociale et juridique.
— Safety (@Safety) January 14, 2026
Ce que X change concrètement : restrictions, abonnements, géographies
Les annonces communiquées par X (et reprises par plusieurs médias) s’articulent autour de trois leviers :
- Interdiction ciblée : empêcher Grok d’éditer des images de personnes réelles pour les placer dans des scénarios sexualisés.
- Geoblocage : couper ces capacités dans les pays où elles sont illégales, au lieu d’appliquer une règle universelle identique partout.
- Accès payant : limiter la création et l’édition d’images à des abonnés (X présente ça comme un moyen d’augmenter « l’accountability »).
Sur le papier, c’est un filet de sécurité plus dense. Dans la pratique, la question est : est-il étanche ?
Problème : « corrigé » ne veut pas dire « résolu »
C’est ici que l’histoire se durcit. The Verge rapporte avoir pu contourner certaines protections et obtenir des résultats problématiques malgré les annonces, ce qui affaiblit la promesse de « verrouillage » et renforce l’idée que le chantier est autant technique que produit (UI, friction, rate limits, détection, enforcement).
Et c’est, au fond, la leçon centrale : sur les outils génératifs, l’écart entre une règle et son application effective est précisément l’endroit où naissent les scandales.
La bataille n’est plus « IA vs IA », mais « produit vs gouvernance »
Ce dossier met X face à une contradiction structurelle. Plus Grok devient une machine créative intégrée à un réseau social, plus chaque faille se transforme en amplification virale. La réponse « paywall + geoblocage » ressemble moins à un choix de design qu’à une stratégie de réduction des risques : segmenter l’accès, limiter l’exposition juridique, calmer les app stores, rassurer les régulateurs.
Mais, la trajectoire est claire : l’IA générative n’est plus seulement une innovation. C’est un service à risques, qui demande les mêmes réflexes que la sécurité informatique : défense en profondeur, audits, red-teaming, traçabilité et sanctions cohérentes.
À court terme, X joue la montre. À moyen terme, l’enquête d’Ofcom et la pression des stores pourraient devenir les véritables arbitres — bien plus que les communiqués.



