Sicurezza, trasparenza e tutela del diritto d’autore. Sono questi i principi chiave intorno ai quali si articola il testo del regolamento sullo sviluppo e l’utilizzo dell’Artificial Intelligence (AI) approvato con larga maggioranza oggi, mercoledì 13 marzo, dal Parlamento Europeo. Primo del suo genere a livello mondiale, il documento si pone come obiettivo la salvaguardia dei diritti fondamentali, della democrazia, delle leggi e della sostenibilità ambientale dai rischi rappresentati dall’AI, senza tuttavia rinunciare all’importante funzione di promotore di innovazione e crescita che questo strumento può svolgere.

“L’approvazione dell’AI Act conclude un lungo percorso per un regolamento molto ambizioso che disciplina in modo completo lo sviluppo e l’uso dell’AI. L’AI Act promuove la via europea per queste tecnologie: i suoi tratti salienti sono trasparenza e spiegabilità, mitigazione e gestione dei rischi, nuovi modelli di governance, tutela dei diritti fondamentali e allineamento con i valori dell’UE. L’AI Act non è solo un traguardo, ma anche un punto di partenza ricco di opportunità e sfide: come tutti i regolamenti, ora tocca all’ecosistema europeo, a cominciare da quello della ricerca, renderlo un documento vivo che tuteli i valori europei e, allo stesso tempo, promuova lo sviluppo competitivo di tecnologie al servizio delle persone, del mondo produttivo e della pubblica amministrazione”, commenta Antonino Rotolo, coordinatore del Gruppo Trasversale di Ricerca di ICSC – Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing e vice direttore del Centro Alma AI dell’Università di Bologna.

Il novero degli utilizzi non consentiti prescritti dal testo della nuova legge fornisce una riprova del grado di pervasività ormai raggiunto dall’intelligenza artificiale, la cui capacità predittiva e di profilazione può arrivare a costituire una seria minaccia per la privacy e la libertà di scelta dei cittadini. Non deve perciò stupire che soluzioni apparentemente al confine con la fantascienza distopica, come i sistemi rivolti alla categorizzazione biometrica e delle immagini facciali, al riconoscimento delle emozioni, al social scoring, alla predizione dei reati e alla manipolazione del comportamento umano, trovino posto all’interno delle applicazioni vietate dall’AI Act.

Il sistema normativo prevede obblighi chiari anche per altre applicazioni di AI considerate sensibili. Tra queste troviamo i sistemi per la gestione di: infrastrutture critiche; istruzione e formazione professionale; occupazione; servizi pubblici e privati essenziali (ad esempio, l’assistenza sanitaria, le banche); migrazione e controllo delle frontiere; giustizia e processi democratici. Tali sistemi dovranno essere in grado di soppesare e ridurre i rischi, mantenere traccia delle operazioni svolte, essere trasparenti e accurati e garantire la supervisione umana. A ulteriore garanzia alla salvaguardia dei diritti della persona, il regolamento stabilisce come i cittadini dovranno avere la possibilità di presentare reclami e ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale.

L’AI Act non manca inoltre di definire norme volte al controllo degli aspetti più critici legati allo sviluppo di modelli di intelligenza artificiale per uso generale, i cosiddetti General-Purpose AI (GPAI), ovvero la tutela dei diritti d’autore dei dati impiegati per l’addestramento dei modelli e la diffusione di contenuti falsi generati da questi ultimi. Il regolamento stabilisce infatti che i GPAI dovranno soddisfare determinati requisiti di trasparenza, tra cui il rispetto della legge sul copyright dell’Unione Europea, la pubblicazione di sintesi dettagliate dei contenuti utilizzati per l’addestramento e l’adozione di etichette che identifichino i contenuti artefatti prodotti come tali.