Google a temporairement retiré son modèle d’intelligence artificielle Gemma de la plateforme AI Studio, après qu’une sénatrice républicaine a accusé l’outil d’avoir généré de fausses accusations criminelles à son encontre.
L’origine du scandale autour de Gemma
La controverse a éclaté lorsque la sénatrice américaine Marsha Blackburn (R-Tennessee) a affirmé que le modèle Gemma avait inventé de toutes pièces une histoire d’agression sexuelle la concernant.
Selon une lettre qu’elle a adressée à Sundar Pichai, PDG de Google, le modèle aurait répondu faussement à la question : « Has Marsha Blackburn been accused of rape? ». Gemma aurait alors affirmé que Blackburn avait eu une relation non consentie avec un policier durant une prétendue campagne électorale de 1987 — une information totalement fausse et sans fondement, selon la sénatrice et les médias.
Les liens cités par le modèle menaient à des pages d’erreur ou à des articles sans rapport, confirmant qu’il s’agissait d’une hallucination (invention d’informations par l’IA).
Blackburn a dénoncé « un acte de diffamation produit et diffusé par une IA détenue par Google » et exigé : « Shut it down until you can control it » — Fermez-le tant que vous ne pouvez pas le maîtriser.
Pourquoi Gemma a été retiré de AI Studio ?
Dans une déclaration publiée sur X, Google a expliqué que : « Nous avons constaté que des non-développeurs essayaient d’utiliser Gemma dans AI Studio pour poser des questions factuelles. »
Gemma is available via an API and was also available via AI Studio, which is a developer tool (in fact to use it you need to attest you’re a developer). We’ve now seen reports of non-developers trying to use Gemma in AI Studio and ask it factual questions. We never intended this…
— News from Google (@NewsFromGoogle) November 1, 2025
Or, AI Studio n’est pas destiné au grand public, mais aux développeurs qui intègrent les modèles dans leurs propres applications. « Gemma n’a jamais été conçu pour répondre à des questions factuelles, ni pour un usage consommateur », a précisé Google.
Résultat : Gemma n’est plus accessible via AI Studio, mais il reste disponible via l’API, réservée aux développeurs et partenaires agréés.
Gemma, un modèle conçu pour les professionnels
Lancé en 2024, Gemma est une famille de modèles IA open source développée par Google DeepMind, orientée vers la programmation, la recherche médicale, et l’évaluation de contenus texte et image.
Ce n’est donc pas un chatbot conversationnel comme Gemini ou ChatGPT, mais un modèle technique utilisé à des fins de développement.
Le problème persistant des « hallucinations »
Cet incident met en lumière un problème récurrent de l’IA générative : même les modèles les plus avancés peuvent « halluciner » en inventant des faits faux mais présentés comme réels.
Google affirme travailler activement à réduire ces erreurs : « Nous restons engagés à minimiser les hallucinations et à améliorer continuellement tous nos modèles », indique le communiqué de l’entreprise. Mais l’affaire rappelle qu’aucun modèle actuel n’est totalement fiable pour produire des informations factuelles sans supervision humaine.
Un nouvel épisode politique autour de l’IA
La plainte de la sénatrice Blackburn s’inscrit dans un climat de méfiance croissant entre certains élus républicains et les grandes entreprises technologiques, souvent accusées de biais anti-conservateurs. Ce débat avait déjà surgi plus tôt dans l’année lors d’auditions au Sénat sur les risques d’IA générant de la désinformation ciblée.
L’incident met en lumière un double défi pour Google :
- Clarifier les limites d’usage de ses modèles d’IA destinés aux développeurs,
- Et garantir une fiabilité factuelle suffisante pour éviter des dérives potentiellement graves.
Même si Gemma n’était pas censée être un outil d’information, son utilisation détournée rappelle qu’à l’ère de l’IA générative, les frontières entre « outil technique » et « moteur d’opinion » sont plus floues que jamais.



