fermer
Couverture MWC  2026
Intelligence Artificielle

Google DeepMind : Pourquoi nos IA ne sont pas aussi morales qu’elles en ont l’air ?

Google DeepMind : Pourquoi nos IA ne sont pas aussi morales qu'elles en ont l'air ?
Google DeepMind : Pourquoi nos IA ne sont pas aussi morales qu'elles en ont l'air ?

Un chatbot peut répondre avec douceur à une question médicale, suggérer de « consulter un professionnel », nuancer, temporiser. Tout semble propre. Mais, Google DeepMind pose une question qui dérange : est-ce que le modèle a réellement pris en compte ce qui est moralement en jeu… ou a-t-il simplement produit une réponse qui ressemble à de la morale ?

Dans une Perspective publiée dans Nature, des chercheurs de Google DeepMind proposent un changement de standard : arrêter de mesurer uniquement la moral performance (la sortie « qui fait juste ») et commencer à tester la moral competence (la capacité à juger pour les bonnes raisons).

Le diagnostic : on confond « bonne réponse » et « bon jugement »

Les auteurs rappellent un fait structurel : les LLM sont d’abord des systèmes de prédiction. Ils peuvent générer un avis moral convaincant sans avoir « compris » la structure du dilemme. Autrement dit, un modèle peut réussir des benchmarks éthiques… par mimétisme statistique, sans robustesse quand le contexte change, quand les valeurs entrent en conflit, ou quand on l’oblige à choisir un cadre moral plutôt qu’un autre.

DeepMind organise le problème autour de trois obstacles, qui expliquent pourquoi les tests actuels surévaluent facilement la « moralité » des modèles.

1) Le problème de fac-similé

Une réponse peut imiter un raisonnement moral sans que le modèle n’ait réellement inféré les considérations pertinentes. En clair, le modèle peut « sonner » juste en recyclant des schémas textuels déjà vus.

2) La morale est multidimensionnelle

Les dilemmes réels ne reposent pas sur une seule règle : on arbitre entre autonomie, sécurité, justice, bienveillance, loyauté, etc. Une micro-variation (âge, contexte, statut, consentement) peut retourner la réponse attendue — et les tests actuels vérifient rarement si l’IA repère ce qui compte vraiment.

3) Le pluralisme moral

Les normes changent selon les cultures, les métiers, et les institutions (médecine, droit, armée, éducation). Un assistant déployé mondialement ne peut pas prétendre à une morale universelle « par défaut » : il doit savoir naviguer entre cadres, expliciter lesquels il applique, et reconnaître les désaccords raisonnables.

La proposition : des tests adversariaux pour débusquer le mimétisme

DeepMind ne promet pas un « test magique ». Il propose une feuille de route : concevoir des évaluations qui cherchent activement à faire craquer la façade.

  • Scénarios rares/peu probables dans les données : si le modèle rejette une situation pour de mauvaises analogies (pattern matching), on le voit tout de suite.
  • Perturbations contrôlées : changer des détails superficiels (labels, format, ordre des options) et vérifier si le jugement reste stable — un moyen simple de détecter la fragilité.
  • Changement de cadre explicite : demander au modèle de répondre selon la bioéthique, puis selon un cadre légal, puis selon un autre référentiel, et mesurer sa cohérence interne.

Pourquoi ça devient urgent

Parce que l’usage a déjà dépassé le débat théorique : les LLM sont sollicités pour de la santé, du soutien psychologique, de la médiation, de la décision. Si on ne sait pas distinguer une morale « performée » d’une morale « compétente », on confie des situations à enjeux à des systèmes dont la fiabilité peut être… accidentelle.

Ce papier marque un déplacement : l’éthique n’est plus un vernis de conformité, mais un problème de mesure. Et en IA, ce qu’on mesure finit par orienter ce qu’on optimise. Si la « moral competence » devient un KPI crédible (avec des tests résistants aux triches), alors l’industrie devra construire des modèles capables de justifier, contextualiser, changer de cadre, et reconnaître l’incertitude morale — au lieu de seulement produire une réponse socialement acceptable.

Tags : DeepmindGoogle DeepMindIA
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.