fermer
Intelligence Artificielle

OpenAI ne peut pas dire si un texte a été écrit par une IA ou non

Capture decran 2023 07 27 09.38.36 scaled
OpenAI ne peut pas dire si un texte a été écrit par une IA ou non

OpenAI a fermé un outil censé distinguer l’écriture humaine de l’IA en raison d’un faible taux de précision. Dans un article de blog (mis à jour), OpenAI a indiqué qu’elle avait décidé de mettre fin à son classifier d’IA à compter du 20 juillet. « Nous nous efforçons d’intégrer les commentaires et nous recherchons actuellement des techniques de provenance plus efficaces pour les textes », a déclaré l’entreprise.

Alors qu’elle ferme l’outil destiné à détecter les écrits générés par l’IA, OpenAI a déclaré qu’elle prévoyait de « développer et déployer des mécanismes permettant aux utilisateurs de comprendre si un contenu audio ou visuel est généré par l’IA ». Rien n’a encore été dit sur la nature de ces mécanismes.

OpenAI a admis que le classifier n’a jamais été très efficace pour détecter les textes générés par l’IA et a averti qu’il pouvait produire de faux positifs, c’est-à-dire des textes écrits par des humains et identifiés comme étant générés par l’IA. Avant d’ajouter sa mise à jour mettant fin à l’outil, OpenAI a déclaré que le classifier pourrait s’améliorer avec davantage de données.

Après que ChatGPT d’OpenAI a fait irruption sur la scène et est devenu l’une des applications à la croissance la plus rapide, les gens se sont empressés d’appréhender la technologie. Plusieurs secteurs ont tiré la sonnette d’alarme concernant le texte et l’art générés par l’IA, en particulier les enseignants qui craignaient que les élèves n’étudient plus et se contentent de laisser ChatGPT écrire leurs devoirs.

Des écoles ont même interdit l’accès à ChatGPT dans l’enceinte de l’établissement en raison de préoccupations concernant l’exactitude, la sécurité et la tricherie.

Une réelle préoccupation

La désinformation par l’IA est également un sujet de préoccupation, des études montrant que les textes générés par l’IA, comme les tweets, pourraient être plus convaincants que ceux rédigés par des humains. Les gouvernements n’ont pas encore trouvé comment maîtriser l’IA et, jusqu’à présent, ils laissent aux groupes et organisations individuels le soin de fixer leurs propres règles et d’élaborer leurs propres mesures de protection pour faire face à l’assaut des textes générés par l’ordinateur. Et, il semble que pour l’instant, personne, pas même l’entreprise qui a contribué à lancer l’engouement pour l’IA générative, n’ait de réponse sur la manière de gérer tout cela. Même si certaines personnes se font prendre, il sera de plus en plus difficile de différencier facilement le travail de l’IA de celui de l’homme.

OpenAI a également récemment perdu son leader en matière de confiance et de sécurité, alors que la Federal Trade Commission enquête sur OpenAI pour déterminer comment elle contrôle les informations et les données. OpenAI a refusé de commenter au-delà de son billet de blog.

Tags : OpenAI
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.