Dans un contexte où l’intelligence artificielle occupe une place de plus en plus centrale dans nos vies, Sam Altman, PDG d’OpenAI, a récemment tenu un discours franc et inquiétant sur les dérives possibles de l’usage de ChatGPT comme substitut à une thérapie professionnelle.
Invité du podcast « This Past Weekend » de l’humoriste Theo Von, Altman a rappelé avec fermeté : les conversations avec l’IA ne bénéficient d’aucune protection légale.
Un avertissement qui tombe à point nommé, alors que des millions de personnes à travers le monde se tournent vers des assistants virtuels pour exprimer leur mal-être, parler de leurs traumatismes ou demander conseil sur leur vie intime.
Aucune confidentialité garantie avec ChatGPT
Contrairement à un échange avec un psychologue, un avocat ou un médecin, les discussions avec ChatGPT ne sont pas protégées par le secret professionnel. Sam Altman a comparé cela à une conversation tenue à voix haute dans un café public : tout ce que vous dites pourrait, en théorie, être utilisé contre vous.
Il l’a clairement formulé : « Nous n’avons pas encore résolu ce problème ».
En clair, si une procédure judiciaire venait à exiger la transmission de données, OpenAI pourrait légalement être contraint de livrer vos conversations. Aucune réglementation, ni aux États-Unis ni dans de nombreux pays, ne protège actuellement ces échanges pourtant très personnels.
Une fausse impression de sécurité émotionnelle
Les experts en cybersécurité, tout comme des chercheurs en psychologie, tirent la sonnette d’alarme. ChatGPT peut simuler l’empathie, donner l’illusion d’une écoute attentive, voire créer un attachement émotionnel artificiel. Sur X, de nombreux utilisateurs ont exprimé leur malaise face à l’impression de nouer une relation « intime » avec un outil informatique.
Altman lui-même l’a reconnu : ces modèles avancés, notamment GPT-4o avec sa voix humaine fluide, « piratent nos circuits neuronaux sociaux », nous poussant à les considérer comme de véritables interlocuteurs, voire comme des confidents. Un piège émotionnel qui peut accentuer l’isolement social ou conduire à une dépendance affective technologique.
Des risques réels… et peu connus
Dans un monde où l’on confie ses émotions à une machine, que devient notre vie privée ? Par défaut, ChatGPT stocke l’historique de vos conversations afin d’entraîner le modèle. Et même si vous supprimez certaines discussions ou désactivez l’historique, des traces peuvent subsister sur les serveurs, comme l’ont révélé des enquêtes de Mashable.
Un rapport du Financial Express estime que des millions d’utilisateurs s’ouvrent à l’IA comme à un thérapeute, sans réaliser que leurs paroles ne sont ni protégées ni effacées, ni à l’abri d’un usage futur.
Une urgence réglementaire
Sam Altman a plaidé pour une réglementation rapide, appelant à un cadre juridique similaire au HIPAA, la loi américaine sur la confidentialité des données médicales. En Europe, le AI Act de l’Union européenne pose déjà des bases strictes pour la protection des données personnelles. Mais, les États-Unis accusent un retard notable, laissant les utilisateurs exposés.
Des entreprises, comme OpenAI, proposent bien des contrôles manuels (comme les « discussions temporaires » qui ne sont pas sauvegardées), mais ces options restent insuffisantes en l’absence de lois contraignantes.
Un débat de société, pas seulement technologique
L’enjeu dépasse largement le domaine de la tech. Avec l’essor de l’IA, il est désormais possible d’avoir des « conversations » crédibles et apaisantes avec un chatbot, créant une nouvelle forme d’accès à un soutien émotionnel, notamment dans les zones mal desservies en professionnels de santé.
Mais sans encadrement, cette démocratisation peut se transformer en danger, comme le souligne Sam Altman. Tant que des garanties légales ne seront pas mises en place, les utilisateurs doivent considérer les échanges avec l’IA comme publics, et non comme confidentiels.
Vers une IA plus responsable ?
En exposant les limites actuelles de son propre système, Sam Altman envoie un message fort à l’ensemble de l’industrie : il est temps de prendre au sérieux la dimension humaine de l’intelligence artificielle.
Derrière chaque prompt se cache une vulnérabilité, une histoire, une douleur parfois.
L’IA peut compléter l’offre thérapeutique, jamais la remplacer. Et tant que la confidentialité ne sera pas juridiquement protégée, les utilisateurs devraient éviter de s’y livrer comme à un thérapeute.



