fermer
Réseaux sociaux

L’UE ouvre une enquête formelle contre X sur Grok : quand l’IA devient un risque systémique au sens du DSA

L’UE ouvre une enquête formelle contre X sur Grok : quand l’IA devient un risque systémique au sens du DSA
L’UE ouvre une enquête formelle contre X sur Grok : quand l’IA devient un risque systémique au sens du DSA

L’Europe ne s’attaque plus seulement aux « posts » et à la modération : elle vise désormais le moteur. La Commission européenne vient d’ouvrir une procédure formelle contre X pour examiner la manière dont la plateforme a déployé Grok dans l’UE — et si l’IA a été évaluée, encadrée et « mitigée » comme l’exige le Digital Services Act.

Le cœur du dossier est simple : Grok génère du texte et des images et peut contextualiser des publications, mais son usage a été associé à des contenus illégaux et/ou préjudiciables, notamment des deepfakes sexuels non consentis, du contenu potentiellement lié à des abus sexuels sur mineurs, et d’autres formes de haine ou de harcèlement.

La Commission explique vouloir vérifier si X, en tant que VLOP (Very Large Online Platform), a respecté ses obligations DSA autour de l’évaluation des risques systémiques, de la mise en place de mesures de réduction, et, point crucial ici, de la production et la diffusion de contenus illégaux via les fonctionnalités IA.

Bruxelles ne veut pas une promesse, mais une méthode. L’enquête doit notamment établir si X a mené et transmis une évaluation ad hoc des risques liés à Grok avant déploiement, correctement couvert des risques comme la diffusion de contenus illégaux, la violence basée sur le genre et les atteintes au bien-être, et évalué l’impact d’un basculement (ou d’une dépendance accrue) vers des systèmes de recommandation « Grok-based » sur le risque systémique global.

Autrement dit : ce n’est pas « Grok a dérapé » — c’est « Grok a-t-il été lancé comme un changement d’architecture qui exige un protocole de sécurité au niveau plateforme ? ».

Un contexte lourd : X déjà sanctionné, et déjà sous enquête depuis 2023

Cette procédure s’inscrit dans une séquence où X est déjà sous pression réglementaire. La Commission avait ouvert une enquête en décembre 2023 sur plusieurs volets DSA (transparence, mécanismes de signalement, accès aux données pour chercheurs, etc.).

Et surtout : X a déjà été condamné à une amende de 120 millions d’euros en décembre 2025 pour manquements DSA liés à la transparence (dont le design trompeur du « tick bleu », transparence pub, accès chercheurs).

Ce que X risque : une enquête « DSA » qui peut faire très mal

Le DSA donne à la Commission un arsenal : demandes d’informations, entretiens, inspections, mesures provisoires, acceptation d’engagements correctifs — ou décision de non-conformité. En cas de violation, les sanctions peuvent aller jusqu’à 6 % du chiffre d’affaires mondial.

À noter : le dossier est mené en coordination avec l’autorité irlandaise Coimisiún na Meán, dans le cadre de la gouvernance DSA (pays d’établissement).

Cette enquête a une portée qui dépasse X. Bruxelles envoie un signal aux plateformes : intégrer un modèle génératif dans le produit (et dans la recommandation) revient à modifier le « système nerveux » du service. Et dans la logique DSA, un système nerveux se teste, se documente, se sécurise — surtout quand il peut amplifier des atteintes aux droits fondamentaux.

La question implicite est redoutable : peut-on déployer une IA grand public à l’échelle d’une VLOP comme on déploie une mise à jour produit ? Le DSA répond plutôt non : à ce niveau, c’est une décision de gouvernance, pas une expérimentation.

Tags : DSAGrokUEX
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.