fermer
Intelligence Artificielle

Google alerte : des hackers « augmentent » leurs attaques avec Gemini — et l’IA accélère surtout ce qui faisait déjà mal

Google alerte : des hackers « augmentent » leurs attaques avec Gemini — et l’IA accélère surtout ce qui faisait déjà mal
Google alerte : des hackers « augmentent » leurs attaques avec Gemini — et l’IA accélère surtout ce qui faisait déjà mal

On a longtemps réduit la cybercriminalité dopée à l’IA à une caricature : des mails de phishing mieux écrits, des arnaques plus « propres », une grammaire moins bancale. Google vient rappeler que la réalité est plus large — et plus inquiétante.

Dans un nouveau rapport du Google Threat Intelligence Group (GTIG), la firme explique avoir observé des groupes liés à des États utiliser Gemini tout au long d’opérations : de la reconnaissance au post-compromis, en passant par la traduction, l’aide au code, les tests de vulnérabilités et le debug quand un outil casse en plein milieu d’une intrusion.

Une IA qui ne « réinvente » pas les attaques, mais qui les rend plus rapides

Le framing de Google est assez clair : l’IA ne crée pas de magie noire, elle réduit les frictions. Les attaquants faisaient déjà du renseignement, rédigeaient des leurres, modifiaient des scripts, corrigeaient des erreurs, traduisaient des contenus et adaptaient leur narration à la cible.

Gemini leur permet simplement d’itérer plus vite, avec moins de pauses et moins de coûts cognitifs.

C’est là que le risque change d’échelle : même si la tactique reste « ancienne », le tempo évolue. Moins de temps entre un premier signal faible et une action concrète, donc moins de marge côté défense pour détecter, corriger, isoler.

gtig ai threat tracker feb26 fig1.max 1500x1500 1

Les acteurs cités : Chine, Iran, Corée du Nord, Russie

Google affirme avoir repéré des usages attribués à des clusters liés à la Chine, l’Iran, la Corée du Nord et la Russie, avec des demandes couvrant :

  • profilage de cibles et synthèse OSINT
  • rédaction et adaptation de « social engineering »
  • traduction (et réécriture dans un ton local)
  • aide au développement et à la correction de code
  • scénarios de tests de vulnérabilités/plans de validation
  • dépannage d’outils pendant une intrusion

Un exemple marquant : des acteurs chinois auraient utilisé une posture « expert cybersécurité » pour pousser Gemini à automatiser de l’analyse de vulnérabilités et produire des plans de test dans un scénario fictif.

Côté Corée du Nord, GTIG évoque des usages de Gemini pour profiler des cibles et soutenir la planification de campagne.

Le deuxième front : « voler » un modèle par extraction et distillation

Là où l’histoire devient encore plus stratégique, c’est quand Google parle d’un autre type d’abus, moins « cyberattaque classique » et plus guerre économique : l’extraction de modèle/distillation des connaissances.

Le principe : des acteurs disposant d’un accès API légitime bombardent le modèle de requêtes pour en reproduire le comportement, puis entraînent un autre système qui imite ses réponses, ses patterns et sa « logique ». Google dit avoir observé et bloqué des campagnes de distillation, dont une impliquant plus de 100 000 prompts visant à répliquer les performances sur des tâches en langues non-anglaises.

Google insiste : ce type d’attaque touche d’abord les éditeurs de modèles (IP, coût, avantage compétitif), plutôt que l’utilisateur final. Mais à grande échelle, le sujet devient explosif : plus on clone facilement, plus l’écosystème se remplit d’« IA de seconde main », parfois mal sécurisées, parfois vendues ou détournées.

Ce que Google dit faire : désactivation, durcissement, détection ciblée

La réponse officielle repose sur trois leviers : suppression de comptes et d’infrastructures liés aux abus documentés, renforcement des classifieurs Gemini, et tests continus des garde-fous. Mais, l’implicite est ailleurs : l’IA est désormais un outil « standard » des opérations offensives — exactement comme l’OSINT, les frameworks d’exploitation ou les kits de phishing l’étaient hier.

La conséquence : les manuels d’exploitation SOC doivent être pensés pour le tempo. Pas seulement « détecter », mais réagir plus vite — segmentation, blocage d’identités, rotation de secrets, durcissement des accès et surveillance des workflows où l’attaquant peut gagner du temps.

Tags : GeminiIAsécurité
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.