L’intelligenza artificiale sotto attacco: i modelli linguistici diventano armi per il cybercrimine

di


,

Uno studio estremamente interessante intitolato “Malla: Demystifying Real-world Large Language Model Integrated Malicious Services“, pubblicato il 19 agosto 2024, ha gettato luce su una preoccupante evoluzione nel campo della sicurezza informatica.

La ricerca rivela l’emergere dei “Malla“, servizi malevoli che sfruttano i modelli linguistici di grandi dimensioni (LLM) – la stessa tecnologia alla base di chatbot come ChatGPT – per attività criminali.

Lo studio, condotto su 212 esempi di Malla, illustra come questi strumenti stiano proliferando nei mercati clandestini del dark web. Questi servizi offrono capacità allarmanti come la generazione automatica di codice malevolo, la creazione di email di phishing convincenti e la costruzione di siti web fraudolenti, il tutto con un livello di sofisticazione precedentemente riservato agli hacker più esperti.

I ricercatori hanno identificato otto diversi LLM backend utilizzati da Malla, insieme a 182 prompt specifici che aggirano le misure di sicurezza delle API pubbliche degli LLM. Questi prompt, essenzialmente istruzioni specializzate, permettono ai criminali di “hackerare” gli LLM, facendo loro generare contenuti dannosi che normalmente sarebbero bloccati.

Le tattiche impiegate dai creatori di Malla sono varie e ingegnose. Alcune sfruttano modelli LLM “non censurati”, cioè versioni di questi sistemi AI prive dei normali filtri etici. Altri utilizzano tecniche di “jailbreak”, manipolando abilmente le istruzioni per aggirare le protezioni integrate negli LLM.

Lo studio ha rivelato che la qualità dei contenuti generati da Malla varia, ma alcuni servizi si sono dimostrati particolarmente efficaci. Ad esempio, EscapeGPT e DarkGPT eccellono nella produzione di codice malevolo che sfugge ai comuni antivirus, mentre WolfGPT crea email di phishing così convincenti da eludere sofisticati filtri antispam.

La ricerca ha anche esaminato l’ecosistema economico che sostiene Malla, rivelando una rapida crescita del fenomeno. I modelli di prezzo rendono questi servizi più accessibili rispetto ai tradizionali mercati di malware, con alcuni Malla che costano appena $5 al mese. Un caso di studio su WormGPT, uno dei servizi Malla più noti, ha mostrato entrate superiori a $28.000 in soli due mesi, evidenziando il potenziale economico di questa nuova forma di criminalità.

Gli autori dello studio propongono diverse strategie di mitigazione per contrastare questa minaccia emergente. Queste includono il miglioramento dei sistemi di moderazione dei contenuti degli LLM, l’imposizione di restrizioni più severe sull’accesso a modelli non censurati e l’implementazione di un sistema di monitoraggio continuo per identificare e neutralizzare rapidamente le nuove minacce Malla che emergono.

Lo studio sottolinea l’urgente necessità di una risposta coordinata da parte di fornitori di LLM, piattaforme di hosting e autorità di cybersicurezza per contrastare questa nuova forma di criminalità informatica. La ricerca serve come un campanello d’allarme, evidenziando come l’innovazione tecnologica, se non adeguatamente regolamentata e monitorata, possa essere rapidamente sfruttata per scopi malevoli.

Mentre l’intelligenza artificiale continua a evolversi e a integrarsi sempre più nella nostra vita quotidiana, studi come questo sottolineano l’importanza critica di un approccio proattivo alla sicurezza informatica, in grado di anticipare e prevenire l’abuso di queste potenti tecnologie.