Mentre le società democratiche di tutto il mondo sono alle prese con una tornata di elezioni cruciali, l'integrità del processo elettorale è sempre più compromessa dal ruolo maggiormente sofisticato e occulto dell'intelligenza artificiale. L'ultima indagine di Check Point Research svela i molteplici modi in cui l’IA viene impiegata per influenzare i risultati politici in tutti i continenti.
Risultati chiave:
L'IA è già ampiamente utilizzata nelle campagne elettorali di tutto il mondo. I deepfake e la clonazione vocale sono stati impiegati nelle elezioni in tre ambiti principali
- per l’autopromozione dei candidati.
- per attaccare e diffamare gli avversari politici.
- per diffamare candidati specifici, da parte di figure chiave di Stati nazionali stranieri
I contenuti deepfake (audio, video e immagini convincenti generate dall'intelligenza artificiale che falsificano o alterano in modo ingannevole l'aspetto, la voce o le azioni dei candidati politici) sono spesso diffusi poco prima delle elezioni per limitare l'opportunità di risposta da parte dei responsabili di verifica. Le norme che vietano la discussione politica sui media tradizionali nelle ore precedenti le elezioni, permettono alle fake news di dominare l'etere in modo incontrastato.
Nell'ambito delle campagne di disinformazione elettorale guidate dall'intelligenza artificiale, i deepfake audio sono attualmente impiegati in modo più esteso e con successo rispetto a quelli che coinvolgono immagini e video.
In molti Paesi mancano attualmente normative e leggi adeguate relativamente a materiali prodotti. Di conseguenza, ciò consente la diffusione di audio e video falsi.
Nella maggior parte dei casi, le democrazie consolidate riportano meno casi di sfruttamento interno della disinformazione generata dall'intelligenza artificiale.
Le campagne degli Stati nazionali hanno la capacità di distribuire false narrazioni ben strutturate e di sincronizzare ampie campagne di disinformazione.
Le arene politiche sature di prodotti informativi generati dall'IA soffrono del "dividendo del bugiardo", che consente ai politici di liquidare come inventati i materiali scandalistici autentici.
Lo scenario
Si prevede che il 2024 sarà un momento cruciale per i processi democratici in tutto il mondo, in quanto oltre 2 miliardi di persone in 50 nazioni si preparano a votare. Questa ondata elettorale globale che ha già visto gli scrutini in Indonesia, Taiwan e Pakistan comprende Paesi come gli Stati Uniti, l'India, il Messico, il Parlamento europeo e il Sudafrica. L'esito di queste elezioni è destinato a influenzare in modo critico la direzione politica futura dell’intero pianeta.
I progressi di quest'anno nella sofisticazione e nell'accessibilità dell'IA generativa hanno aumentato le preoccupazioni sull'integrità dei processi elettorali. Queste preoccupazioni si concentrano principalmente sulle campagne di disinformazione, in particolare sul timore che l'applicazione diffusa di nuove tecnologie, in grado di produrre e diffondere contenuti video e audio falsificati, possa allontanare il discorso pubblico dalle sue radici fattuali e diminuire la fiducia dei cittadini nelle istituzioni democratiche.
Nella precedente pubblicazione dello scorso settembre, Check Point Research aveva esaminato le minacce poste dai progressi delle tecnologie di IA generativa alle elezioni democratiche. Nell'articolo si discuteva di come l'IA potesse generare grandi volumi di contenuti personalizzati, diventando così un potente strumento di micro-targeting e di manipolazione del comportamento all'interno della sfera politica. Questa capacità di produrre contenuti personalizzati su larga scala e a basso costo, unita al suo potenziale di produrre materiali audiovisivi altamente realistici ma falsi, ha sollevato il timore che il futuro discorso politico possa distogliere l'attenzione da questioni politiche rilevanti.
Sfruttamento dei deepfake da parte dell'IA
Le precedenti discussioni sull'impatto degli strumenti di IA sulle elezioni si basavano per lo più su valutazioni di minacce ipotetiche. Con l'avvento di sofisticati strumenti di IA generativa, gli Stati esteri e i candidati politici nazionali sono in grado di sfruttare queste tecnologie. Tra i più preoccupanti ci sono i servizi di "deepfake", che possono creare contenuti audio o visivi altamente realistici, ma falsi. Questi materiali possono essere utilizzati da partiti politici e candidati nazionali, o da agenti stranieri, per aumentare le possibilità di un particolare candidato o partito alle elezioni, danneggiare i concorrenti o, in generale, minare la fiducia del pubblico nel processo democratico. Sul fronte interno, i contendenti politici o i loro affiliati potrebbero utilizzare le capacità di deepfake insieme alle piattaforme di social media guidate dall'intelligenza artificiale per influenzare l'opinione pubblica a loro favore. L'automazione della creazione di contenuti e la capacità di gestire vaste reti di personaggi online fittizi consentono una scala di influenza precedentemente inimmaginabile, complicando gli sforzi per mantenere la correttezza e la trasparenza delle elezioni. Si stanno accumulando prove dell'effettivo sfruttamento di materiali generati dall'intelligenza artificiale nelle elezioni di tutto il mondo. Sono state esaminate 36 elezioni parlamentari, regionali e presidenziali svoltesi nei sei mesi tra il settembre 2023 e il febbraio 2024 e sono state riscontrate segnalazioni sostanziali di materiali generati dall'IA utilizzati in campagne di disinformazione in almeno 10 casi. La revisione si è concentrata principalmente sui rapporti dei media mainstream in lingua inglese, trascurando probabilmente i Paesi più piccoli che non attirano l'attenzione dei media internazionali. Concentrandoci sui rapporti dei media tradizionali, inoltre, non saremmo in grado di rilevare tutti i materiali generati dall'IA pubblicati sui social media, ma piuttosto solo le campagne che sono state segnalate come disinformazione e sono state riprese dai media. Considerando la pletora di strumenti e servizi disponibili e il loro effettivo utilizzo nelle campagne in alcuni Paesi, colpisce l'assenza di prove di IA in altri casi. Eventi elettorali minori, come quelli delle Maldive e del Madagascar, possono passare inosservati in queste analisi a causa delle dimensioni, della lingua o della mancanza di interesse internazionale per i loro risultati. Tuttavia, i media non hanno rilevato lamentele sull'uso dell'IA nelle elezioni in Francia, Canada (Manitoba), Germania (Baviera e Assia), Grecia, Nuova Zelanda, Ecuador e Finlandia. Questi Paesi si collocano relativamente in alto negli indici di democrazia (ad esempio, le classifiche V-Dem 2023 v2x_api sono rispettivamente 11, 20, 16, 38, 7, 60 e 14). Nei Paesi in cui l'opinione pubblica ha fiducia nei media indipendenti, la probabilità di diffondere disinformazione può essere ridotta. Secondo un articolo dell'Harvard Misinformation Review, in questi scenari la maggior parte delle persone consuma prevalentemente contenuti provenienti da fonti tradizionali (rispetto ai social media) ed è quindi esposta solo marginalmente alla disinformazione, per quanto convincente possa apparire. Le campagne di disinformazione sono state identificate come uno strumento fondamentale nelle società autocratiche. Anche nelle democrazie, livelli elevati di disinformazione sono stati collegati all'inizio dell'autocratizzazione. Di conseguenza, è plausibile che l'utilizzo di strumenti di IA per la disinformazione sia più diffuso nelle nazioni autocratiche, nelle democrazie imperfette e nei Paesi che sono bersaglio di regimi autocratici.In molti casi l'IA è stata utilizzata per generare materiali tradizionalmente prodotti dal personale della campagna elettorale o da consulenti mediatici assunti. Questo è evidente in esempi che vanno dall'Argentina all'Indonesia. Un aspetto positivo di questi strumenti è il loro utilizzo per aggirare le restrizioni alla libertà di parola, come è stato fatto fornendo un volto e una voce al leader politico imprigionato del Pakistan Khan o un notevole tentativo di dare voce all'opposizione silenziosa della Bielorussia. Tuttavia, è bene stare in guardia sul fatto che gli strumenti progettati per animare le idee delle campagne elettorali spesso si traducono in applicazioni fuorvianti, come email non verificate in Polonia o aver messo in bocca a leader deceduti parole per appoggiare politici attuali, una tattica che è stata utilizzata, per esempio in Indonesia e in India.
***
Segui Check Point Research:
LinkedIn: https://www.linkedin.com/company/check-point-software-technologies
X:?https://www.twitter.com/checkpointsw
Facebook:?https://www.facebook.com/checkpointsoftware
Blog: https://blog.checkpoint.com
YouTube:?https://www.youtube.com/user/CPGlobal
Check Point Research
Check Point Research fornisce le principali informazioni sulle minacce informatiche ai clienti di Check Point Software e alla più ampia community di intelligence. Il team di ricerca raccoglie e analizza tutti i dati relativi agli attacchi mondiali rilevati da ThreatCloud per tenere a bada gli hacker e garantire che tutti i prodotti Check Point siano aggiornati con le protezioni più recenti. Il team di ricerca è composto da oltre 100 analisti e ricercatori che collaborano con altri vendor di sicurezza, forze dell’ordine e numerosi CERT.
Check Point Software Technologies Ltd.
Check Point Software Technologies Ltd. (www.checkpoint.com) è tra i fornitori leader di piattaforme di cyber security basate sull’intelligenza artificiale e cloud delivered che protegge oltre 100.000 organizzazioni a livello globale. Check Point sfrutta la potenza dell'AI, ovunque, per migliorare l'efficienza e l'accuratezza della sicurezza informatica attraverso la sua Infinity Platform, con tassi di identificazione leader nel settore che consentono di anticipare le minacce in modo proattivo e con tempi di risposta più rapidi e smart. La piattaforma completa comprende tecnologie cloud-delivered che consistono in Check Point Harmony per proteggere l’ambiente di lavoro, Check Point CloudGuard per proteggere il cloud, Check Point Quantum per proteggere la rete e Check Point Infinity Core Services per operazioni e servizi di sicurezza collaborativi.
Contatti per la stampa:
Sound PR
Silvia Asperges: s.asperges@soundpr.it – 02 20569527
Massimo Spagarini: m.spagarini@soundpr.it – 340 358 7701
Erika Dalla Longa: e.dallalonga@soundpr.it – 02 20569525