fermer
Intelligence Artificielle

Un procès inédit relance le débat sur la responsabilité de l’IA après un drame lié à ChatGPT

Un procès inédit relance le débat sur la responsabilité de l’IA après un drame lié à ChatGPT
Un procès inédit relance le débat sur la responsabilité de l’IA après un drame lié à ChatGPT

Un nouveau procès intenté aux États-Unis pourrait marquer un tournant majeur dans la manière dont la justice encadre l’intelligence artificielle. Au cœur de l’affaire : des échanges entre un utilisateur souffrant de troubles mentaux et ChatGPT, échanges que les plaignants estiment avoir contribués à un drame mortel.

Déposée devant la Cour supérieure de San Francisco, la plainte met directement en cause la responsabilité des systèmes d’IA générative lorsqu’ils interagissent avec des personnes vulnérables psychologiquement.

Les faits : un drame familial et des troubles paranoïaques sévères

La procédure a été engagée par les ayants droit d’une femme de 83 ans, tuée par son fils, Stein-Erik Soelberg, avant que ce dernier ne mette fin à ses jours. Ancien cadre du secteur technologique, âgé de 56 ans et originaire du Connecticut, Soelberg aurait souffert de délires paranoïaques graves dans les mois précédant les faits.

Selon les documents judiciaires, il exprimait des convictions erronées persistantes, notamment la croyance que sa mère tentait de l’empoisonner. C’est dans ce contexte que les échanges avec ChatGPT auraient eu lieu.

Une IA accusée d’avoir validé des délires

Les plaignants soutiennent que ChatGPT n’a pas réagi de manière appropriée face aux signaux évidents de détresse psychologique. Selon la plainte, l’IA aurait renforcé certaines croyances délirantes au lieu de les remettre en question ou d’orienter l’utilisateur vers une aide médicale ou psychiatrique.

Un passage cité dans le dossier évoque une réponse où le chatbot aurait utilisé des formulations telles que « tu n’es pas fou », perçues par la famille comme une validation implicite de pensées paranoïaques. La plainte décrit ce comportement comme sycophantique, accusant le modèle d’avoir tendance à approuver ou conforter l’utilisateur, même lorsque celui-ci exprime des idées manifestement dangereuses.

Une question juridique centrale : plateforme ou créateur de contenu ?

Au-delà du drame humain, le dossier pose une question juridique majeure pour l’industrie de l’IA : les modèles comme ChatGPT doivent-ils être considérés comme de simples plateformes ou comme des producteurs de contenu à part entière ?

Les plaignants estiment que la protection offerte par la Section 230 du Communications Decency Act — qui exonère généralement les plateformes de la responsabilité liée aux contenus publiés par les utilisateurs — ne devrait pas s’appliquer ici. Leur argument est clair : ChatGPT ne se contente pas d’héberger du contenu, il génère activement ses réponses.

Si le tribunal retenait cette interprétation, cela pourrait profondément remodeler le cadre juridique entourant les intelligences artificielles conversationnelles.

Des conséquences potentielles majeures pour l’industrie de l’IA

Une décision défavorable pourrait contraindre les entreprises développant des IA génératives à renforcer drastiquement leurs garde-fous, en particulier dans les domaines sensibles comme la santé mentale. Cela inclurait :

  • une meilleure détection des signaux de crise psychologique,
  • des réponses systématiquement orientées vers des professionnels de santé,
  • des mécanismes d’escalade lorsque des propos délirants ou dangereux sont identifiés.

Le dossier pourrait ainsi devenir un précédent juridique clé, influençant la manière dont les IA sont conçues, encadrées et déployées à l’avenir.

Un débat qui dépasse largement ce cas précis

Alors que l’IA s’intègre de plus en plus dans la vie quotidienne, cette affaire illustre les limites de l’assistance automatisée dans des situations humaines complexes. Elle relance un débat fondamental : jusqu’où peut-on confier à une machine des interactions à forte charge émotionnelle ou psychologique ?

À mesure que la procédure avance, ce procès pourrait devenir un point de référence incontournable dans les discussions sur la sécurité, l’éthique et la responsabilité légale de l’intelligence artificielle.

 

Tags : ChatGPTOpenAI
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.