Oltre 100mila dati condivisi con ChatGPT in vendita sul DarkWeb

20/06 AI

Tra giugno 2022 e maggio 2023, oltre 101.100 credenziali di account OpenAI ChatGPT compromesse sono state trovate in vendita nei mercati illeciti del dark web, rivelando un allarmante trend di furto di dati legati all’intelligenza artificiale. Secondo un report dell’azienda di sicurezza informatica Group-IB, condiviso da The Hacker News, tra i paesi più colpiti vi è l’India, con ben 12.632 credenziali rubate, seguita da Pakistan, Brasile, Vietnam, Egitto, Stati Uniti, Francia, Marocco, Indonesia e Bangladesh.

Il fenomeno delle credenziali rubate ha raggiunto il suo apice in maggio 2023, quando il numero di registrazioni contenenti account ChatGPT compromessi ha superato i 26.800. La regione asiatico-pacifica ha registrato la maggior concentrazione di credenziali ChatGPT offerte in vendita nel corso dell’ultimo anno, dimostrando una vulnerabilità crescente nella gestione dei dati legati all’Intelligenza Artificiale in questa zona.

L’analisi dei dati rubati ha rivelato che la stragrande maggioranza dei log contenenti account ChatGPT compromessi è stata trafugata dal noto software malevolo Raccoon (78.348), seguito da Vidar (12.984) e RedLine (6.773). Tali strumenti, noti come “information stealers”, sono sempre più popolari tra i cybercriminali poiché consentono di rubare password, cookies, dati di carte di credito e altre informazioni preziose direttamente dai browser e dalle estensioni dei portafogli di criptovalute.

I log contenenti le informazioni compromesse vengono scambiati attivamente nei mercati del dark web, dove gli acquirenti possono trovare anche informazioni aggiuntive sui domini presenti nel log e sull’indirizzo IP dell’host compromesso. Questi strumenti, offerti solitamente tramite un modello di sottoscrizione basato su abbonamenti, non solo hanno abbassato la soglia di ingresso per i cybercriminali, ma fungono anche da canale per lanciare ulteriori attacchi utilizzando le credenziali sottratte.

Dmitry Shestakov, direttore del reparto di intelligence sulle minacce di Group-IB, sottolinea come “molte imprese stanno integrando ChatGPT nel loro flusso operativo. I dipendenti inseriscono corrispondenze riservate o utilizzano il bot per ottimizzare il codice proprietario. Considerando che la configurazione standard di ChatGPT conserva tutte le conversazioni, ciò potrebbe offrire involontariamente un tesoro di informazioni sensibili agli attori delle minacce, qualora questi ultimi ottengano le credenziali di accesso.”

Per mitigare tali rischi, si raccomanda di seguire pratiche adeguate di igiene delle password e di proteggere gli account con sistemi di autenticazione a due fattori (2FA), al fine di prevenire attacchi di compromissione dei dati. Questo sviluppo preoccupante emerge parallelamente a una campagna di malware in corso che sfrutta false pagine OnlyFans e contenuti per adulti come esca per diffondere un trojan di accesso remoto e uno strumento di furto di informazioni chiamato DCRat (o DarkCrystal RAT), una versione modificata di AsyncRAT.

Michele Laurelli

Ciao, sono Michele! Ho 32 anni, mi occupo di intelligenza artificiale. Insegno, scrivo e realizzo progetti. Quando non lavoro tiro di scherma.

Cosa ne pensi?

Mostra l'area commenti