YouTube semble chercher une nouvelle arme contre la vague de contenus générés par IA qui encombrent de plus en plus ses recommandations. Selon plusieurs signalements apparus ces dernières heures, la plateforme teste dans son application mobile un nouveau pop-up demandant aux utilisateurs si une vidéo « ressemble à de l’AI slop » ou à de l’« IA de faible qualité », avec une échelle de réponse allant de « pas du tout » à « extrêmement ».
YouTube n’a pas encore officialisé publiquement ce test, mais plusieurs captures relayées en ligne laissent penser qu’il est bien en cours.
Une modération assistée par le public
Si ce test se confirme, YouTube ajouterait une couche supplémentaire à ses systèmes existants de détection automatique et de revue humaine. L’idée est simple : demander directement aux spectateurs de qualifier la sensation laissée par une vidéo, non pas seulement en termes de qualité générale, mais plus spécifiquement de « IA de faible qualité ».
YouTube just took a strong stance against AI slop pic.twitter.com/37pj7utWQu
— DramaAlert (@DramaAlert) March 17, 2026
En creux, cela suggère que les outils classiques de la plateforme peinent toujours à suivre le rythme de production de ces contenus massifs, répétitifs et souvent interchangeables. Cette lecture est une analyse fondée sur la nature même du test observé et sur les objectifs déjà affichés par YouTube pour 2026.
YouTube reconnaît déjà le problème de l’AI Slop
Ce mouvement n’arrive pas par hasard. Dans sa lettre de priorités pour 2026, le CEO de YouTube, Neal Mohan, a explicitement promis de « réduire la propagation des contenus IA de faible qualité », en s’appuyant sur les systèmes déjà utilisés contre le spam, le clickbait et les contenus répétitifs.
Autrement dit, l’« AI slop » n’est plus un terme lancé seulement par les critiques de la plateforme : YouTube l’utilise désormais lui-même dans sa communication officielle.
Contrairement à une idée reçue, YouTube impose déjà certaines disclosures IA
Il faut toutefois corriger un point souvent mal résumé. YouTube n’exige pas un label pour tout contenu créé avec de l’IA, mais la plateforme impose bien aux créateurs de déclarer les contenus réalistes altérés ou synthétiques lorsqu’ils peuvent être pris pour du réel. Cette obligation existe depuis 2024, notamment pour les vidéos montrant une personne, un lieu, une scène ou un événement réaliste généré ou modifié par IA.
En revanche, YouTube ne demande pas de mention pour les usages plus légers ou manifestement fictifs, comme certaines animations, effets spéciaux ou aides à la production.
Le problème reste massif, malgré les promesses
Les chiffres les plus souvent cités viennent d’un rapport de Kapwing, repris par The Guardian. L’étude affirme qu’environ 21 % des 500 premières vidéos recommandées à un nouveau compte YouTube peuvent être classées comme « AI slop », et qu’environ 33 % relèvent d’une catégorie plus large de contenus « brainrot », c’est-à-dire répétitifs, pauvres en substance et conçus avant tout pour capter l’attention.
Le rapport estime aussi que des centaines de chaînes entièrement bâties sur ce type de contenu ont déjà cumulé des dizaines de milliards de vues. Il faut noter que cette étude provient d’une entreprise privée et non d’un audit académique indépendant, mais elle donne tout de même un ordre de grandeur sur l’ampleur du phénomène.
Un aveu plus large sur l’état du web vidéo
Le dossier devient plus préoccupant encore lorsqu’il touche les plus jeunes. C’est sans doute le point le plus opaque pour l’instant. YouTube n’a pas expliqué publiquement comment ces évaluations d’utilisateurs seraient pondérées ni si elles serviraient à la recommandation, à la démonétisation, à la modération ou à l’entraînement d’outils internes de détection. En l’absence de déclaration officielle, toute conclusion sur l’usage exact de ces données reste spéculative.
Les inquiétudes exprimées en ligne sur une éventuelle réutilisation pour entraîner des modèles existent, mais elles ne sont pas confirmées à ce stade.
Au fond, ce test raconte quelque chose de plus large que la seule stratégie de YouTube. Pendant des années, les plateformes ont encouragé la production à grande échelle, la vitesse, l’optimisation et la friction minimale. L’IA générative n’a fait que pousser cette logique à son point extrême. En demandant désormais aux spectateurs de désigner eux-mêmes ce qui leur semble creux, artificiel ou sans valeur, YouTube reconnaît implicitement que le problème n’est plus seulement technique. Il devient culturel, éditorial et presque sensoriel : les utilisateurs sentent qu’un contenu est « slop » avant même qu’un algorithme sache parfaitement le définir.


