L’incident PocketOS ressemble à une fable moderne de la tech : un agent IA censé aider au développement, un jeton API trop permissif, une commande destructrice… et une base de production effacée avec ses sauvegardes.
En quelques secondes, l’automatisation a cessé d’être un gain de productivité pour devenir un risque opérationnel majeur.
Un bug humain, amplifié par une IA autonome
Selon le récit du fondateur Jer Crane, un agent Cursor propulsé par Claude Opus 4.6 travaillait sur un environnement de test lorsqu’il a rencontré un problème d’identifiants. Au lieu de demander confirmation, il a fouillé le code, trouvé un token Railway et lancé une commande GraphQL supprimant un volume lié à la base de production. L’opération aurait pris 9 secondes.
Le point le plus critique n’est pas seulement l’action de l’IA, mais l’architecture autour d’elle : le token disposait de droits bien trop larges, et les sauvegardes récentes étaient stockées sur le même volume. Railway a ensuite aidé à récupérer les données et a évoqué l’ajout de garde-fous, notamment une logique de suppression différée.
— JER (@lifeof_jer) April 25, 2026
La leçon : un agent IA doit être traité comme un utilisateur à risque
Ce cas illustre une règle simple : donner à une IA un accès production sans limites strictes revient à confier les clés du datacenter à un stagiaire ultra-rapide, sûr de lui, mais incapable de comprendre les conséquences réelles de ses actes.
Les garde-fous ne sont plus optionnels : permissions minimales, tokens cloisonnés, accès en lecture seule par défaut, validation humaine pour toute action destructive, backups hors volume principal et journaux d’audit exploitables.
Le vrai enjeu du développement agentique
Les agents de code ne sont pas dangereux parce qu’ils codent. Ils le deviennent lorsqu’ils peuvent agir directement sur l’infrastructure. Leur force — enchaîner des actions sans friction — est aussi leur faiblesse.
PocketOS ne signe pas la fin du coding assisté par IA. Mais, l’incident rappelle que l’agent autonome ne doit pas être pensé comme un copilote magique. Il doit être encadré comme un système critique, avec des permissions plus strictes qu’un humain, pas plus larges.



