Il 2024 passerà alla storia come il più grande anno elettorale di sempre, con quattro miliardi di persone al voto. Purtroppo, questa pietra miliare del suffragio coincide però con l'avvento dei deepfake alimentati dall'Intelligenza Artificiale, che potrebbero diffondere disinformazione per influenzare gli elettori.
Il deepfake è una tecnica di sintesi dell’immagine che riproduce le sembianze di una persona attraverso l'uso di Intelligenza Artificiale (in particolare, del "deep learning"). I deepfake vengono creati addestrando un modello di apprendimento automatico su un ampio set di immagini o video di una persona, come un candidato politico, per imparare e replicare le sue peculiarità.
In Slovacchia, l'anno scorso, un audio deepfake di un candidato alle elezioni che discuteva di come truccare il voto è stato diffuso 48 ore prima dell'apertura delle urne, un tempo non sufficiente per essere smascherato. Analogamente in Bangladesh, nel giorno delle elezioni tenutesi a gennaio, è stato diffuso un video generato dall'Intelligenza Artificiale in cui un candidato indipendente annunciava il suo ritiro dalle elezioni. Lo stesso mese, gli elettori statunitensi hanno ricevuto delle robocall che imitavano la voce del presidente degli Stati Uniti Joe Biden, intimando loro di non votare alle primarie presidenziali dello Stato
Le autorità politiche statunitensi hanno riconosciuto la necessità di implementare investimenti in sicurezza informatica avanzata; un’azione avviata nel 2020 quando sono stati stanziati 400 milioni di dollari per la sicurezza elettorale
In totale, in un solo anno, tra il 2019 e il 2020, la quantità di contenuti online deepfake è aumentata del 900%. “Deepfakes 2020: the tipping point”. In prospettiva, la stragrande maggioranza dei contenuti online potrebbe essere generata in modo sintetico entro il 2026, il che renderà più difficile distinguere tra contenuti autentici e quelli fraudolenti generati dall'Intelligenza Artificiale.
Più dati sono disponibili, più il falso è realistico, più la minaccia cresce.
Investire in cybersicurezza
La vulnerabilità dell'IA e l'IA generativa ai cyberattacchi, alle violazioni e alla manipolazione negativa dei dati sta alimentando la domanda di misure di prevenzione sempre più avanzate. Secondo Gartner, nel 2024 la spesa per la sicurezza informatica dovrebbe aumentare di circa il 14%. Con la crescente diffusione dell'Intelligenza Artificiale, riteniamo che la crescita potrebbe essere ancora più rapida in futuro. Le violazioni della sicurezza possono compromettere la fiducia dei clienti nei confronti dei dati sensibili e aumentare il livello di ransomware, interrompendo l'operatività aziendale.
Come evidenziato da Yves Kramer, Senior Investment Manager, Thematic Equities, Pictet Asset Management, è probabile che si assista a un aumento delle soluzioni “Zero Trust”, vale a dire di tecniche che controllano l'accesso degli utenti verificando continuamente le credenziali delle persone che interagiscono con un'organizzazione, sia internamente che esternamente. Prevediamo inoltre una crescita del Secure Access Service Edge (SASE), una trasformazione della rete progettata per il cloud, che sfrutta il monitoraggio dell'identità e del comportamento degli utenti per guidare le continue modifiche dei criteri.
È però interessante notare che la stessa Intelligenza Artificiale generativa può essere parte della soluzione, in quanto il settore della sicurezza informatica adatta modelli linguistici di grandi dimensioni (LLM) per rilevare più rapidamente gli attacchi e contrastare le potenziali minacce provenienti da un codice pericoloso generato da altre macchine. Riteniamo che questa sia un'opportunità enorme, sia per il settore della sicurezza che per gli investitori.
Le aziende di cybersicurezza in grado di adottare l’IA nella progettazione di sistemi di difesa digitale, al centro della strategia Pictet-Security, avranno forti prospettive di crescita nei prossimi anni. Questo vale soprattutto per quelle realtà che danno priorità agli investimenti in infrastrutture e per quelle che sviluppano software e applicazioni di sicurezza specializzate.
Difesa dai deepfake
In questa particolare fase storica, i protagonisti del deepfake restano comunque un passo avanti. "È un gioco al gatto e al topo e, al momento, la quantità di risorse riversate nello sviluppo di nuove forme di contenuti generativi è significativamente superiore a quella investita nello sviluppo di robuste tecniche di rilevamento", afferma Henry Ajder, consulente esperto di deepfake e Intelligenza Artificiale.
Gli strumenti di rilevamento dei deepfake, seppur a un ritmo meno sostenuto, continuano a evolversi e si adattano a nuovi contesti. Sebbene la maggior parte dei sistemi preventivi sia stata addestrata su dati di provenienza occidentale, la polizia della Corea del Sud è riuscita a sviluppare un software addestrato su dati coreani in vista delle elezioni. Questo strumento utilizza l'Intelligenza Artificiale per confrontare potenziali bufale con contenuti esistenti e determinare se sono stati manipolati con tecniche di deepfake; si parla di un tasso di accuratezza dell'80%.
Molti strumenti di rilevamento dei deepfake adottano questo approccio, mirando a individuare piccoli difetti in audio e video per identificarli come contenuti manipolati. Una delle tecniche più efficaci finora impiegate adotta l'approccio opposto, ricavando qualità uniche dei filmati reali che i deepfake non possono cogliere. FakeCatcher di Intel, ad esempio, è uno strumento all'avanguardia che identifica le immagini false di persone utilizzando la fotopletismografia (PPG), una tecnica che rileva i cambiamenti del flusso sanguigno nel viso. "Quando il cuore pompa il sangue nelle vene, queste ultime cambiano colore", spiega Ilke Demir, che ha concepito l'idea. "Questo non è visibile a occhio nudo, ma è visibile a livello informatico".
Il software raccoglie i segnali PPG da ogni punto del viso e crea mappe dalle proprietà spaziali e temporali di questi segnali. Queste mappe vengono utilizzate per addestrare una rete neurale a classificare i video in veri e falsi. Il vantaggio di questo software, secondo il dottor Demir, è che i segnali PPG non possono essere duplicati. "Non esiste un approccio che possa inserirli in un modello generativo per poi cercare di impararli", afferma la dottoressa. "Ecco perché FakeCatcher è uno strumento così valido".
FakeCatcher ha un tasso di precisione del 96%. L'emittente britannica BBC ha testato questa tecnologia sia su filmati falsi sia su quelli reali e ha constatato che ha identificato correttamente tutti i video falsi tranne uno. Tuttavia, ha fornito anche alcuni falsi positivi, identificando i video reali come falsi a causa di pixel sfocati o a causa di riprese laterali. "Cerchiamo di fornire il maggior numero possibile di risultati interpretabili", afferma l’esperto. "L' utilizzatore del sistema dovrebbe prendere la decisione finale osservando i diversi segnali".
Certo, ogni approccio al rilevamento dei deepfake ha pro e contro. Secondo Henry Ajder, è promettente l'iniziativa della Coalition for Content Provenance and Authenticity (C2PA) - di fatto una firma digitale - che gode del sostegno di aziende del calibro di Google, Intel e Microsoft. "Esistono tecnologie in grado di allegare, in modo crittograficamente sicuro, metadati che garantiscono la trasparenza sulle modalità di creazione di un contenuto multimediale e sugli strumenti utilizzati", spiega. "Questo è di gran lunga l'approccio migliore ai fini della sicurezza, ma è un compito davvero ambizioso".
C2PA sta creando uno standard per condividere le credenziali dei contenuti. "È sicuramente in aumento la spinta verso queste tecnologie", afferma Ajder. "Se non c'è un'ampia collaborazione e un allineamento, in particolare tra le grandi aziende, ci ritroveremo però con troppi prodotti e piattaforme di autenticazione diversi, rendendo la vita dei consumatori più difficile".
Inoltre, se da un lato questo approccio presenta dei vantaggi, dall'altro potrebbe sollevare questioni etiche relative alla privacy, con il timore che lo standard possa rivelare troppi dati sulla provenienza dell'immagine, come il luogo o l'ora in cui è stata scattata. Questo potrebbe essere un rischio, ad esempio, in un contesto in cui opera un'organizzazione per i diritti umani.
La tecnologia da sola non potrà mai risolvere completamente il problema dei deepfake. Tutti i consumatori dovranno osservare in modo più critico i contenuti che consultano. "Dobbiamo cambiare il nostro comportamento come consumatori, invece di fidarci di tutto ciò che vediamo, e arrivare a verificare le credenziali dei contenuti e un ulteriore livello di autenticità", conclude l’esperto. "Non è un'impresa da poco".