fermer
Intelligence Artificielle

Plus de 100 000 comptes d’utilisateurs de ChatGPT compromis par un logiciel malveillant

zac wolff rv2ooDQuNuI unsplash 2 jpg
Plus de 100 000 comptes d'utilisateurs de ChatGPT compromis par un logiciel malveillant

Selon un récent rapport du cabinet de cyberespionnage Group-IB, plus de 100 000 comptes d’utilisateurs de ChatGPT, la populaire plateforme de chatbot alimentée par l’IA, ont été compromis par des malwares au cours de l’année écoulée. Ces résultats ont été obtenus à partir de données recueillies sur divers sites Web clandestins du marché du dark web.

L’analyse de Group-IB a révélé un nombre stupéfiant de journaux de vols d’informations contenant des identifiants de comptes ChatGPT, rapporte BleepingComputer. Le pic de comptes compromis a été observé en mai 2023, avec des acteurs de la menace affichant 26 800 nouvelles paires d’identifiants ChatGPT.

Le rapport met également en évidence la répartition géographique des comptes compromis.

La région Asie-Pacifique a représenté près de 41 000 comptes compromis entre juin 2022 et mai 2023, suivie par l’Europe avec près de 17 000 comptes. Étonnamment, l’Amérique du Nord s’est classée au cinquième rang, avec environ 4 700 comptes affectés.

Aperçu des malwares

Les malwares sont des logiciels malveillants conçus pour cibler et extraire des données de compte à partir de diverses applications, notamment des clients de messagerie, des navigateurs Web, des messageries instantanées, des services de jeux et des portefeuilles de crypto-monnaies.

Ces programmes malveillants visent à voler les informations d’identification stockées dans les navigateurs Web en les extrayant de la base de données SQLite de l’application et en exploitant des techniques d’inversion du chiffrement.

Les informations d’identification volées et les autres données dérobées sont regroupées dans des archives appelées « logs », qui sont ensuite renvoyées vers les serveurs des attaquants en vue d’une exploitation ultérieure.

Dans le même ordre d’idées, on a entendu que ChatGPT pouvait être utilisé pour créer des logiciels malveillants sophistiqués capables de collecter des données à partir d’ordinateurs Windows. Selon certains rapports, Aaron Mulgrew, chercheur en sécurité chez Forcepoint, a déclaré qu’il pouvait créer un logiciel malveillant en quelques heures à l’aide des invites générées par ChatGPT.

La menace des outils alimentés par l’IA

La compromission des comptes ChatGPT, des comptes de messagerie, des données de cartes de crédit et des informations des portefeuilles de crypto-monnaies démontre l’importance croissante des outils alimentés par l’IA pour les particuliers et les entreprises.

La capacité de ChatGPT à stocker les conversations signifie qu’un accès non autorisé à un compte peut exposer des informations propriétaires, des stratégies commerciales internes, des communications personnelles, du code logiciel, et bien plus encore.

« De nombreuses entreprises intègrent ChatGPT dans leur flux opérationnel », explique Dmitry Shestakov, expert du Group-IB. « Étant donné que la configuration standard de ChatGPT conserve toutes les conversations, cela pourrait involontairement offrir un trésor de renseignements sensibles aux acteurs de la menace s’ils obtiennent les informations d’identification du compte », ajoute Shestakov.

Un scénario analogue s’est produit chez Samsung lorsque des employés ont involontairement divulgué des informations classifiées en utilisant ChatGPT. Les inquiétudes concernant les risques potentiels associés à ChatGPT ont conduit les géants de la technologie comme Samsung à mettre en œuvre des politiques strictes interdisant l’utilisation de la plateforme sur les ordinateurs de travail. Les employés qui ne respectent pas cette politique risquent d’être licenciés.

Atténuer les risques

Les données du Group-IB révèlent une augmentation constante des journaux de ChatGPT volés au fil du temps. Parmi les différents malwares identifiés, Raccoon vole la vedette, avec près de 80 % de tous les enregistrements. Vidar et Redline suivent avec respectivement 13 % et 7 %.

Pour réduire les risques associés à ChatGPT, il est conseillé aux utilisateurs de désactiver la fonction de sauvegarde des conversations dans le menu des paramètres de la plateforme. Par ailleurs, la suppression manuelle des conversations immédiatement après leur utilisation peut également contribuer à la protection des informations sensibles.

Cependant, il est important de noter que de nombreux malwares utilisent des tactiques telles que les captures d’écran ou l’enregistrement du clavier, qui peuvent compromettre les données même si les conversations ne sont pas sauvegardées.

Tags : ChatGPTmalwareRaccoonsécurité
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.