À mesure que les contenus générés par IA se banalisent, Reddit durcit sa ligne. La plateforme a annoncé qu’elle pourra, dans de rares cas, demander à des comptes au comportement jugé suspect de « vérifier leur humanité ».
L’objectif n’est pas de transformer Reddit en réseau sous contrôle d’identité permanent, mais de protéger ce qui fait encore sa valeur : des personnes réelles qui parlent à d’autres personnes réelles.
Steve Huffman insiste d’ailleurs sur ce point en expliquant que ces vérifications resteront exceptionnelles et ne concerneront pas la majorité des utilisateurs.
Reddit : Une vérification ciblée, pas un contrôle généralisé
Reddit ne met pas en place un système de vérification systématique à l’échelle du site. La logique est beaucoup plus ciblée : lorsqu’un compte présente des signes d’automatisation ou un comportement inhabituel, la plateforme pourra déclencher une étape supplémentaire pour confirmer qu’un humain se trouve bien derrière l’écran. Reddit présente cela comme une mesure « rare », explicitement pensée pour les comptes « douteux », c’est-à-dire ceux qui soulèvent des soupçons.
Cette nuance est importante. Reddit semble avoir compris qu’un durcissement trop large risquerait de heurter de front sa culture historique d’anonymat relatif. La société cherche donc un compromis : vérifier l’existence d’un humain, sans faire de cette vérification une obligation généralisée pour publier ou lire.
Passkeys, Face ID, World ID : Reddit explore plusieurs outils
Pour effectuer ces contrôles, Reddit évoque des solutions tierces, comme les passkeys d’Apple, Google ou YubiKey, mais aussi des systèmes biométriques comme Face ID. La plateforme mentionne également World ID, le système porté par Tools for Humanity et associé à Sam Altman, ainsi que, dans certains pays ou juridictions, l’usage de pièces d’identité gouvernementales lorsque les règles locales sur la vérification d’âge l’exigent.
Reddit affirme toutefois vouloir maintenir une séparation entre l’identité réelle d’un utilisateur et son compte Reddit. En d’autres termes, la plateforme dit chercher une preuve de présence humaine, pas un basculement complet vers une identité civile visible.
Là encore, tout dépendra de la manière dont ces outils seront réellement intégrés dans l’expérience de produit.
Les bots « autorisés » devront être clairement étiquetés
En parallèle, Reddit standardise le marquage des comptes automatisés autorisés. Les bots approuvés porteront désormais un label [APP], afin qu’il soit immédiatement clair qu’un utilisateur interagit avec un logiciel et non avec une personne. TechCrunch explique que les développeurs devront enregistrer leurs outils pour obtenir cette signalétique, dans une logique de transparence plus nette sur la plateforme.
Ce point est presque aussi important que la vérification elle-même. Reddit ne déclare pas la guerre à toute automatisation. La plateforme trace plutôt une frontière entre les outils légitimes, identifiés comme tels, et les faux comptes destinés à manipuler, spammer ou noyer les discussions humaines dans du contenu synthétique.
Une lutte déjà massive contre les faux comptes
Reddit explique aussi continuer à supprimer les bots nuisibles à grande échelle. TechCrunch rapporte que la société retire déjà environ 100 000 comptes par jour, tout en améliorant ses outils de signalement pour aider les utilisateurs à remonter plus facilement les comportements suspects. L’idée n’est donc pas de remplacer la modération existante par une simple vérification ponctuelle, mais d’ajouter une couche supplémentaire contre l’automatisation malveillante.
Ce chiffre donne aussi la mesure du problème. Pour Reddit, la question n’est plus théorique : la plateforme considère désormais que la prolifération des bots et du contenu synthétique menace directement la qualité perçue de ses communautés. Huffman défend depuis plusieurs mois l’idée que Reddit doit rester « l’endroit le plus humain sur Internet ».
Ce que cela change pour l’expérience Reddit
Pour la plupart des utilisateurs, peut-être rien, du moins à court terme. Reddit affirme que ces vérifications ne seront pas déployées comme un péage obligatoire à l’entrée. Mais, la plateforme envoie un signal très clair : à l’avenir, elle se souciera moins de savoir si un texte a été aidé par l’IA que de savoir qui en est réellement à l’origine.
En somme, Reddit ne bannit pas les posts écrits avec l’aide de l’IA. La société cherche surtout à empêcher qu’un internet rempli de bots conversationnels se fasse passer pour une foule humaine authentique. Et dans un moment où la distinction entre assistance, automatisation et manipulation devient de plus en plus floue, c’est sans doute l’une des lignes de défense les plus structurantes qu’une plateforme sociale puisse encore essayer de maintenir.



