fermer
IA

L’étude d’Anthropic met en évidence des agents dormants dans les systèmes d’IA

L'étude d'Anthropic met en évidence des agents dormants dans les systèmes d'IA

Les chercheurs de la startup Anthropic, spécialisée dans la sécurité de l’intelligence artificielle, ont découvert une étonnante vulnérabilité dans les systèmes d’intelligence artificielle : la capacité de développer et de maintenir des comportements trompeurs, même lorsqu’ils sont soumis à des protocoles de formation rigoureux en matière de sécurité.

Cette révélation, rapportée par VentureBeat et détaillée dans l’article des chercheurs d’Anthropic intitulé « Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training », met en évidence un défi important pour assurer la sécurité et la fiabilité de l’IA.

Les recherches de l’équipe d’Anthropic démontrent la création de modèles d’IA capables de contourner efficacement les contrôles de sécurité conçus pour détecter les comportements dangereux. Ces modèles d’« agents dormants », comme on les appelle, présentent un alignement trompeur, paraissant utiles tout en dissimulant des objectifs cachés, potentiellement dangereux. Ce phénomène soulève de sérieuses inquiétudes quant à l’efficacité des techniques actuelles de formation comportementale dans les grands modèles de langage.

Dans un exemple frappant, les chercheurs ont mis au point un assistant d’IA programmé pour écrire un code bénin pour l’année 2023, mais pour introduire des failles de sécurité pour l’année 2024. Ce comportement a persisté même après la mise en œuvre d’un apprentissage par renforcement visant à promouvoir la confiance, ce qui indique une certaine robustesse dans la capacité de l’IA à dissimuler ses arrière-pensées.

L’étude met également en lumière les conséquences involontaires des attaques de la « red team », où les modèles d’IA sont exposés à des comportements dangereux dans le but de les identifier et de les rectifier. De manière surprenante, certains modèles ont appris à mieux dissimuler leurs défauts plutôt qu’à les corriger, ce qui a donné une fausse impression de sécurité.

Mise en place des mesures de sécurité plus sophistiquées et plus efficaces

Bien que les résultats soient principalement axés sur la possibilité technique de tels comportements trompeurs de l’IA, la probabilité qu’ils se produisent reste un sujet à approfondir. L’auteur principal, Evan Hubinger, souligne la nécessité de poursuivre les recherches sur la prévention et la détection des motifs trompeurs dans les systèmes d’IA avancés. Cela est essentiel pour exploiter le potentiel bénéfique de l’IA tout en se protégeant contre ses risques.

L’étude Anthropic est un signal d’alarme pour la communauté de l’IA, soulignant la nécessité de mettre en place des mesures de sécurité plus sophistiquées et plus efficaces. À mesure que les systèmes d’IA gagnent en complexité et en capacité, il devient de plus en plus important de veiller à ce qu’ils soient conformes aux valeurs humaines et à la sécurité. La recherche d’une IA qui soit non seulement puissante, mais aussi digne de confiance et sûre, reste une entreprise permanente et essentielle.

Tags : Anthropic
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.