I dati emersi indicano che i cybercriminali siano al momento ancora scettici sull'impiego dell’IA per le loro attività illecite
Sophos, leader globale nell'innovazione e nell'erogazione della cybersicurezza as-a-service, ha pubblicato due report dedicati all'utilizzo della AI nel comparto del cybercrimine.
Il primo studio, intitolato “The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI”, dimostra come nel futuro potranno essere sfruttate tecnologie come ChatGPT per perpetrare frodi su vasta scala a fronte di competenze tecniche minime. Tuttavia, un secondo report dal titolo “Cybercriminals Can’t Agree on GPTs” ha rilevato come, nonostante le potenzialità della AI, alcuni cybercriminali siano ancora lontani dall'adottare gli LLM (Large Language Model) come ChatGPT rimanendo scettici e persino preoccupati circa il ricorso alla AI per i loro attacchi.
Il lato oscuro della AI Usando un semplice template per e-commerce e tool LLM come GPT-4, gli specialisti di Sophos X-Ops sono stati in grado di costruire un sito web completamente funzionante dotato di immagini, contributi audio e descrizioni di prodotto generati da AI, il tutto completato da un finto login Facebook e una finta pagina di checkout con cui è possibile sottrarre le credenziali di login e i numeri di carta di credito di utenti inconsapevoli. Costruire e attivare il sito web ha richiesto pochissime conoscenze tecniche e, con lo stesso strumento, Sophos X-Ops è riuscita in pochi minuti a creare centinaia di siti simili semplicemente premendo un pulsante.
“È naturale – e prevedibile – che i criminali sfruttino le nuove tecnologie per automatizzare le loro attività. Le email di spam sono state un importante passo avanti nella tecnologia al servizio delle truffe perché ha cambiato la scala delle relative attività. Le nuove AI sono destinate a fare lo stesso: dovesse esistere una tecnologia AI capace di creare minacce automatizzate complete, prima o poi le persone la utilizzerebbero. Abbiamo già assistito all'integrazione di elementi di AI generativa nelle truffe classiche, come testi o fotografie prodotti da AI, per adescare vittime.
“Tuttavia, uno dei motivi che ci hanno spinto a effettuare questa ricerca è quello di restare un passo avanti rispetto ai cybercriminali. Creando un sistema per la generazione di siti fraudolenti su vasta scala ben più avanzato dei tool attualmente impiegati dai criminali, abbiamo la particolare opportunità di analizzare la minaccia e prepararci ad affrontarla prima che possa proliferare”, ha dichiarato Ben Gelman, senior data scientist di Sophos.
GPT, opinioni discordi tra i cybercriminali
Per capire cosa pensano i cybercriminali della AI, Sophos X-Ops ha esaminato quattro importanti forum del dark web alla ricerca di conversazioni inerenti i modelli LLM. Sebbene il ricorso alla AI da parte dei cybercriminali sia solo agli inizi, all'interno del dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering. Sophos X-Ops ha già verificato l'impiego di AI nelle criptotruffe a sfondo romantico. Sophos X-Ops ha inoltre scoperto che la maggioranza dei post riguardava la vendita di account ChatGPT compromessi e dei cosiddetti “jailbreak” – sistemi che permettono di aggirare le protezioni integrate negli LLM in modo da poterli sfruttare per obiettivi illeciti. Sophos X-Ops ha trovato anche dieci derivati da ChatGPT che, secondo i relativi autori, possono essere usati per lanciare cyberattacchi e sviluppare malware. Le reazioni di fronte a questi tool e ad altre applicazioni illecite degli LLM non sono univoche: molti criminali temono addirittura che gli autori di queste imitazioni di ChatGPT stiano tentando di truffarli.
“Per quanto dal lancio di ChatGPT vi siano state notevoli preoccupazioni sul possibile abuso della AI da parte dei cybercriminali, la nostra ricerca ha rilevato che per ora nell'underground circola più scetticismo che entusiasmo. In due dei quattro forum del dark web che abbiamo analizzato c'erano solo 100 post dedicati alla AI. Per confronto, nello stesso periodo sono stati pubblicati ben 1.000 post sul tema delle criptovalute. “Abbiamo visto che alcuni cybercriminali hanno provato a creare malware o tool di attacco mediante LLM, ma i risultati sono stati alquanto rudimentali e spesso accolti con scetticismo dagli altri utenti. In un caso, un cybercriminale deciso a dimostrare le potenzialità di ChatGPT ha rivelato inavvertitamente informazioni significative sulla sua reale identità. Abbiamo persino trovato numerosi articoli d'opinione relativi ai possibili effetti negativi della AI sulla società e alle implicazioni etiche del suo utilizzo. In altre parole, almeno per ora, pare che i dibattiti sugli LLM in corso tra cybercriminali siano gli stessi di chiunque altro”, ha commentato Christopher Budd, director, X-Ops research di Sophos.