fermer
Applications Mobiles

Instagram va cacher les images d’automutilation derrière des « écrans de sensibilité »

instagram
Instagram va cacher les images d’automutilation derrière des « écrans de sensibilité »

Le nouveau PDG d’Instagram, Adam Mosseri, a écrit cette semaine un article dans The Telegraph pour expliquer les différentes étapes que la filiale de Facebook entreprendra pour empêcher les utilisateurs d’être exposés à des images liées à l’automutilation et au suicide, tout en cherchant des moyens d’aider les utilisateurs qui affichent de tels contenus.

Instagram utilisera des « écrans de sensibilité », explique Mosseri dans l’article, pour estomper le contenu offensant et le supprimer de la recherche, des hashtags ou des recommandations de compte. Les images ne seront pas immédiatement visibles, mais elles le seront toujours, car Instagram ne veut pas interdire aux gens de partager un tel contenu.

Le PDG a déclaré que l’entreprise a essayé d’arrêter la diffusion de ces images, mais qu’elle n’est pas en mesure de trouver le contenu assez rapidement : « Nous devons faire tout ce qui est en notre pouvoir pour assurer la sécurité des personnes les plus vulnérables qui utilisent notre plateforme. Pour être très clairs, nous n’autorisons pas les messages qui encouragent le suicide ou l’automutilation. Nous comptons beaucoup sur notre communauté pour signaler ce contenu et le supprimer dès qu’il est trouvé ».

Instagram précise que les ingénieurs et les modérateurs qualifiés vont « travailler sans relâche » pour rendre plus difficile la recherche de ces images, et qu’elle a déjà mis en place des mesures qui cesseront de recommander « des images connexes, des hashtags, des comptes et des suggestions ». Le libellé de l’article n’indique pas clairement si Instagram utilisera des outils d’intelligence artificielle pour reconnaître automatiquement les éléments d’une photo ou d’une vidéo susceptibles d’entrer dans la catégorie de l’automutilation.

Aider les gens en détresse

Mais pourquoi ne pas supprimer complètement ces images d’automutilation ? Ce serait effectivement la solution de facilité, mais contrairement à la pornographie, Instagram veut également être un refuge sûr pour ceux qui cherchent à se soigner en partageant leur vie. Ou du moins c’est ce que certains experts auraient conseillé à l’entreprise.

Mosseri a également dit qu’il veut aider les utilisateurs qui ont des problèmes d’automutilation ou des pensées suicidaires et les diriger vers des organisations qui peuvent les aider. L’annonce d’Instagram fait suite à un événement tragique au Royaume-Uni, où une adolescente de 14 ans s’est suicidée après avoir vu des images d’automutilation sur Instagram et Pinterest, explique Engadget.

Facebook a déployé des outils de prévention du suicide basés sur l’IA en novembre 2017, il est donc logique de voir des programmes analogues se déployer dans d’autres services, en particulier Instagram, dont le contenu est purement graphique.

Tags : Instagram
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.