fermer
Couverture CES 2026
Google

Google retire discrètement certains AI Overviews après des erreurs médicales graves

Google retire discrètement certains AI Overviews après des erreurs médicales graves
Google retire discrètement certains AI Overviews après des erreurs médicales graves

Début janvier, une enquête de The Guardian a mis en lumière un problème sérieux : Google diffusait, via ses AI Overviews, des informations médicales trompeuses — voire dangereuses — en réponse à des questions de santé courantes.

Quelques semaines plus tard, ces résultats semblent avoir été partiellement supprimés.

Google AI Overviews : Des réponses médicales jugées « dangereuses »

L’enquête du Guardian citait plusieurs exemples préoccupants :

  • Dans un cas qualifié de « vraiment dangereux » par des spécialistes, Google conseillait à des personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Or, selon les experts, cette recommandation est exactement inverse aux bonnes pratiques médicales et pourrait augmenter le risque de mortalité chez ces patients.
  • Autre exemple jugé « alarmant » : des informations erronées sur les tests de fonction hépatique, susceptibles d’amener des patients atteints de maladies graves du foie à croire, à tort, que leurs résultats sont normaux.

Ces réponses étaient générées automatiquement par les AI Overviews, ces résumés produits par l’IA et placés en haut des résultats de recherche.

Des AI Overviews désormais absents… partiellement

Selon le Guardian, les AI Overviews ont été désactivés pour certaines requêtes précises, notamment :

  • « what is the normal range for liver blood tests »
  • « what is the normal range for liver function tests »

Lorsque ces recherches sont effectuées aujourd’hui, les résumés IA (AI Overviews) n’apparaissent plus. Dans certains cas, l’un des premiers résultats affichés est même… l’article du Guardian expliquant leur suppression.

Cependant, le retrait n’est pas systématique. Des formulations proches ou plus techniques (« lft reference range », par exemple) ont parfois continué à déclencher des réponses générées par l’IA, même si plusieurs tests récents montrent que Google semble progressivement restreindre ces affichages.

Google reste évasif

Interrogé par le Guardian, Google a refusé de commenter ces suppressions spécifiques, se contentant d’expliquer qu’il travaillait à « des améliorations générales ». Un porte-parole a ajouté qu’une équipe interne de cliniciens avait examiné les requêtes signalées et estimé que, « dans de nombreux cas, les informations n’étaient pas inexactes et étaient soutenues par des sources de qualité ».

Une déclaration qui contraste avec les conclusions de plusieurs experts médicaux indépendants interrogés dans l’enquête initiale.

Un problème plus large que quelques requêtes

Pour Vanessa Hebditch, directrice de la communication et des politiques publiques du British Liver Trust, la suppression est une « excellente nouvelle », mais elle souligne un problème bien plus profond : « Le vrai souci, c’est qu’on se concentre sur une requête isolée que Google peut simplement désactiver, sans s’attaquer au problème global des AI Overviews en matière de santé ».

Cette affaire s’ajoute à une longue liste de controverses autour des résumés IA de Google, qui ont déjà conseillé de mettre de la colle sur une pizza, suggéré de manger des pierres, et fait l’objet de plusieurs poursuites judiciaires.

La santé n’est pas un terrain d’expérimentation

Google a multiplié ces derniers mois les annonces visant à améliorer la recherche médicale grâce à l’IA, avec des modèles spécialisés et des garde-fous renforcés. Mais cet épisode montre les limites actuelles de ces systèmes lorsqu’ils sont déployés à grande échelle.

Dans le domaine de la santé, une approximation n’est pas une simple erreur technique : elle peut avoir des conséquences réelles, graves, voire irréversibles. Supprimer ponctuellement certaines réponses problématiques ne règle pas la question centrale : faut-il confier des conseils médicaux à des résumés générés automatiquement, même « surveillés » ?

Tant que cette question restera ouverte, chaque retrait discret d’AI Overview ressemblera moins à une solution… qu’à un aveu.

Tags : AI OverviewsGooglesanté
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.