Ad oggi è impossibile prevedere se i big data e l’intelligenza artificiale (IA) avranno un impatto duraturo sulle dinamiche del potere nella cybersecurity. Gli hacker e i loro potenziali bersagli tentano di guadagnarsi il primato dell’utilizzo dei dati raccolti – e siamo solo all’inizio di un gioco che assomiglia sempre più a quello del gatto col topo.
Cybercrime e marketing – stesso principio?
In molti casi di hackeraggio illecito le tecniche tradizionali sono state modificate tenendo conto dell’uso dei big data. “Per fissare il prezzo del riscatto per un attacco ransomware i cybercriminali ragionano come marketer”, afferma Matthieu Bonenfant, Chief Marketing Officer di Stormshield: pur tentando sempre di massimizzare il proprio profitto, l’hacker non può non considerare che se il prezzo del riscatto è troppo alto, la vittima si rifiuterà probabilmente di pagare o, in alcuni casi, informerà la polizia.
Inoltre, “più è elevata la mole di dati sul bersaglio di cui dispone l’hacker, maggiore è la probabilità che l’attacco vada a buon fine”, aggiunge il CMO. Per raccogliere tali dati i cybercriminali si avvalgono sia di tecniche di ingegneria sociale, sia di applicazioni dedicate all’analisi di informazioni sul bersaglio liberamente accessibili. I social network diventano una miniera d’oro e le informazioni personali condivise una vulnerabilità. Chi può dire di non aver mai utilizzato la data di compleanno, il nome di un gatto, cane o dei propri cari come ispirazione per la propria password?
L’ingegneria sociale è anche usata per lo spear phishing. Utilizzando i dati personali dell’utente, i cybercriminali sono in grado di profilare il soggetto e di inviargli messaggi personalizzati – proprio come farebbe un buon programma di marketing. “L’intelligenza artificiale identifica collegamenti tra i dati che l’essere umano non vedrebbe ed è in grado di verificare più combinazioni (p.es. per determinare la composizione di una password) ad una velocità molto più elevata” spiega Matthieu Bonenfant.
A fronte del crescente impiego di chatbots nel marketing, gli esperti hanno già rilevato in che modo l’AI può essere impiegata in modo fraudolento: “Ci vuole poco a implementare chatbot fasulli e, attraverso essi, a instaurare conversazioni fittizie con il bersaglio al fine di ridurne il livello di attenzione rispetto a potenziali minacce”. Senza parlare del rischio che i veri robot vengano attaccati e che le loro conversazioni vengano intercettate. Per evitare tutto ciò sarebbe opportuno cifrare e archiviare in maniera sicura eventuali messaggi, prima che siano cancellati in un lasso di tempo predefinito.
Intelligenza artificiale: buzzword o opportunità reale?
Oltre a queste pratiche, apparentemente ispirate al mondo del marketing, l’intelligenza artificiale è fonte di grande interesse e discussione sul web. È arrivato però il momento di sfatare un mito: quello del malware ultrapotente, pilotato esclusivamente dall’intelligenza artificiale e capace di contrastare qualsiasi sistema di protezione che vi si opponga. “Per ora non ci risulta l’esistenza di alcun malware basato esclusivamente sull’IA” assicura Paul Fariello, Security Researcher di Stormshield.
Gli unici episodi conosciuti di attacchi ai sistemi informativi condotti tramite applicazioni IA sono da collocarsi in ambito accademico. Ne è l’esempio la DARPA Cyber Grand Challenge di Las Vegas nel 2016, dove, per la prima volta, sette sistemi di intelligenza artificiale si sono sfidati.
Per il momento, “le tattiche convenzionali funzionano fin troppo bene”, fa notare Paul Fariello. “I singoli cadono ancora in trappole basate su tecniche elementari, come il phishing – un processo simile al teleshopping, bastano soltanto uno o due “acquirenti” per risultare proficuo. Per quale motivo gli hacker dovrebbero sviluppare costosi software basati interamente sull’IA?” La miglior strategia di difesa è ancora la formazione di team specializzati. E forse un giorno saranno i governi ad investire massicciamente in programmi di attacco alimentati dall’intelligenza artificiale, chi può dirlo.
L'intelligenza artificiale gioca meglio in difesa
Se parliamo di difesa dei computer, l’intelligenza artificiale ha un impatto più diretto. Combinata ai big data, l’IA può essere utilizzata per analizzare un grande numero di file dal comportamento sospetto e per identificare in maniera chiara quelli dalla natura malevola. “L’obiettivo è di contribuire alla capacità di elaborazione di un cospicuo numero di analisti che processano in continuazione una quantità di dati che aumenta esponenzialmente” spiega Paul Fariello. Queste analisi dettagliate possono contribuire alla produzione di patch e aggiornamenti che impediscono agli hacker di cogliere di sorpresa il Responsabile della Sicurezza delle Informazioni (CISO) e di ridurre il rischio rappresentato dagli attacchi zero-day.
Per quanto facilitante, l’IA non può operare nell’ambito della sicurezza informatica senza l’ausilio dell’essere umano, dando vita ad un paradosso: la sua utilità nell’ambito della sicurezza IT dipende pesantemente dalla sua interazione con gli umani oltre che dalla mole di file sospetti con cui va alimentata immediatamente tramite soluzioni di sicurezza di nuova generazione. In altri ambiti invece, come ad esempio nella guida autonoma o nel gaming, l’intelligenza artificiale è molto più indipendente.
“L’intelligenza artificiale non garantisce comunque un risultato esatto” spiega Paul Fariello. “Basandosi su criteri predefiniti dagli esseri umani, essa analizza il comportamento dei file, calcolando la probabilità che siano legittimi o sospetti, e a volte non riesce ad indentificare le differenze. Prendiamo l’esempio di un malware che sfrutta la velocità di calcolo di un processore per minare criptovalute. Il suo comportamento è molto simile a quello di un programma legittimo, progettato dagli umani allo stesso scopo (minare criptovalute)”. In un contesto completamente diverso, ma comunque importante per capire la limitata capacità di discernimento dell’IA, si può citare l’esempio di Amazon, costretta a mettere fine a un programma interno sviluppato per facilitare il processo di reclutamento del personale. Il motivo? Il sistema si basava su modelli di curricula presentati alla società negli ultimi 10 anni. La maggior parte di essi inviati da uomini: le candidature femminili venivano penalizzate automaticamente dal programma, che aveva “imparato” che i profili maschili erano preferibili rispetto a quelli femminili. Ne derivava quindi una discriminazione di genere, che ha portato l’azienda ad abbandonare il progetto.
E quindi evidente che, come per gli strumenti impiegati dagli hacker, disporre di grandi quantitativi di dati risulta essenziale anche per la protezione delle potenziali vittime. Per il gatto, come per il topo, la corsa alla raccolta dei dati non è che all’inizio.
Fonte notizia
sabcommunications.net it sicurezza-raccolta-dei-dati