Alleata o nemica dell’essere umano? Questo, al momento, il dubbio più grande che riguarda l’Intelligenza Artificiale e le sue applicazioni pratiche. Una risposta a questa domanda al momento non c’è in maniera definitiva, ma il futuro per l’Europa sembra meno incerto grazie alla legge sull’IA che “garantisce sicurezza e rispetto dei diritti fondamentali e promuove l'innovazione”, come si legge nel comunicato stampa pubblicato il 13 marzo sul sito del Parlamento europeo.
Perché l’Europa ha voluto un regolamento per l’Intelligenza Artificiale?
Già a dicembre del 2023 era stato trovato l’accordo su questo regolamento tra i Paesi membri dell’Unione Europea, approvato poi tre mesi dopo grazie a 523 voti favorevoli, in netta maggioranza rispetto ai 46 contrari e ai 49 astenuti. Non possiamo dire di essere stati i primi al mondo, perché ad esempio la Cina ha normato l’utilizzo dell’Intelligenza Artificiale generativa già nell’agosto dello scorso anno, ma il pacchetto europeo è di sicuro più ampio e con maggiore attenzione ai divieti.
“L'obiettivo – si legge nel comunicato stampa del Parlamento europeo – è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione e assicurando all'Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l'IA sulla base dei possibili rischi e del livello d'impatto”.
Che cosa prevede l’AI Act: il nodo della sicurezza
Un futuro alla Minority Report o alla Black Mirror può attendere, per lo meno nel Vecchio Continente. I diritti dei cittadini sono stati reputati superiori anche rispetto alla sicurezza, tanto che le forze dell’ordine non potranno usare a loro piacimento l’Intelligenza Artificiale. Sarà dunque vietato utilizzare sistemi di IA per il riconoscimento facciale su dati biometrici in tempo reale oppure estrapolando i volti delle persone dal web o dalle telecamere a circuito chiuso. In questo modo, si evita la possibilità che vengano create delle banche dati per il riconoscimento facciale da usare su richiesta. Non sono possibili nemmeno gli utilizzi dell’IA per la polizia predittiva: ciò significa niente algoritmi per calcolare le possibilità che un certo reato possa essere commesso in uno specifico luogo da determinate persone in un periodo di tempo scelto in anticipo. E il Parlamento europeo ha detto no anche ai sistemi di riconoscimento delle emozioni nelle scuole e nei posti di lavoro, ai sistemi di credito sociale (in Cina sono già attivi, si chiamano anche sistemi di social scoring) e agli strumenti che possono manipolare gli esseri umani o possono approfittare della vulnerabilità di alcune persone.
Tuttavia, le forze dell’ordine potranno utilizzare l’identificazione biometrica in tempo reale in specifici casi e solo se hanno ottenuto prima “autorizzazione giudiziaria o amministrativa”. Per esempio, la polizia può sfruttare queste tecnologie per cercare persone scomparse o per prevenire attacchi terroristici, ma solamente se si configura un reato, essendo attività ad alto rischio per i diritti dei cittadini.
Gli altri temi regolamentati dall’AI Act
Dopo la sicurezza, anche la trasparenza sull’utilizzo dell’IA è stata reputata fondamentale: deve essere possibile riconoscere immagini o video fake con etichette evidenti (i social network sono avvertiti) e le persone devono sapere in anticipo se chi sta rispondendo via web è un altro essere umano o un bot. Attenzione anche alla tutela dei diritti d’autore e all’impatto dei sistemi di AI generativa sulle persone: maggiori sono le implicazioni e più stringenti sono gli obblighi che le società di AI dovranno rispettare. La controrivoluzione è appena all’inizio.