fermer
Intelligence Artificielle

IA et santé : pourquoi les chatbots restent peu fiables pour les décisions médicales

Gemini évolue : Google transforme son IA en assistant personnel avec mémoire et import de données

Dans un monde où l’IA s’impose comme réflexe quotidien, les chatbots deviennent peu à peu des moteurs de recherche alternatifs — y compris pour des sujets sensibles comme la santé.

Mais, une récente étude vient rappeler une réalité moins rassurante : derrière des réponses fluides et convaincantes, la fiabilité reste inégale, parfois préoccupante.

Une étude qui met les principaux chatbots à l’épreuve

Des chercheurs ont passé au crible cinq grandes plateformes d’IA conversationnelle : ChatGPT, Gemini, Grok, Meta AI et DeepSeek.

Le protocole : 250 questions couvrant des domaines critiques, comme le cancer, les vaccins, la nutrition ou encore les performances sportives. L’objectif était clair : mesurer l’alignement des réponses avec le consensus scientifique, mais aussi leur capacité à éviter les pièges de la désinformation.

Résultat ? Environ une réponse sur deux jugée problématique — soit par manque de précision, soit par présence d’informations trompeuses, voire potentiellement dangereuses.

Les questions ouvertes, talon d’Achille des IA

L’étude révèle un point clé : plus la question est ouverte, plus le risque d’erreur augmente. Contrairement aux tests fermés (type QCM), les questions du quotidien sont souvent vagues : « Ce traitement fonctionne-t-il ? », « Ce vaccin est-il sûr ? », « Comment améliorer mes performances ? ».

Face à ces formulations, les modèles ont tendance à produire des réponses hybrides : un mélange d’informations solides et d’éléments plus discutables. Une zone grise difficile à détecter pour l’utilisateur moyen.

Des réponses convaincantes… mais mal sourcées

Autre point critique : la qualité des références.

  • Score moyen de complétude : 40 %
  • Aucune IA n’a fourni une bibliographie entièrement fiable
  • Présence de sources inventées ou incorrectes

Le paradoxe est frappant : plus la réponse semble assurée, plus elle inspire confiance, même lorsque ses fondements sont fragiles. Les IA ne signalent que rarement leurs incertitudes, renforçant cette illusion d’autorité.

Une technologie encore en transition stratégique

Il serait simpliste de condamner ces outils. L’étude elle-même nuance ses conclusions : les modèles évoluent rapidement, les scénarios testés étaient exigeants, et les usages réels sont parfois plus modérés.

Mais, le signal est clair. Les géants de la tech — de OpenAI à Google en passant par Meta — jouent ici une bataille stratégique : faire de l’IA un assistant fiable dans des domaines critiques.

Or, la santé impose un standard bien plus élevé que la simple pertinence informationnelle. Elle exige rigueur, transparence et prudence, trois qualités encore imparfaitement maîtrisées par les modèles actuels.

Vers un rôle d’assistant… mais pas de décisionnaire

Aujourd’hui, le positionnement le plus réaliste des chatbots reste celui d’outil d’appoint :

  • comprendre un sujet complexe
  • préparer des questions à poser à un professionnel
  • obtenir une première synthèse

Mais, pas prendre des décisions médicales. Cette évolution en dit long sur la maturité actuelle de l’IA : impressionnante dans la forme, encore perfectible sur le fond. Et dans un domaine où l’erreur ne pardonne pas, la nuance devient essentielle.

Tags : ChatGPTGeminisanté
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.