Bologna, 23 Aprile – Si è svolto nella mattinata di oggi, presso la sede della Regione Emilia-Romagna, l’Incontro dal titolo ‘AI Act: l’Intelligenza Artificiale al servizio della PA‘, dedicato ad approfondire le tematiche relative alla numerose sfide e opportunità associate all’adozione dell’IA all’interno delle amministrazioni pubbliche, con l’intento di fornire indicazioni e scenari utili all’elaborazione di strategie e di regole per uno sfruttamento consapevole di questo nuovo strumento, soprattutto in vista dell’attuazione dell’AI Act, il regolamento che disciplina lo sviluppo e applicazione dell’Intelligenza Artificiale approvato dal Parlamento Europeo. L’evento, contraddistinto da panel e interventi di alto profilo tecnico che hanno riguardato le prospettive regolatorie di uno sviluppo etico e responsabile dell’Intelligenza Artificiale nella PA, è stato organizzato e promosso dall’ICSC – Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing, dall’Alma Mater Research Institute for Human-Centered Artificial Intelligence (ALMA AI) e dalla Scuola di Specializzazione in Studi sull’Amministrazione Pubblica (SPISA) dell’Università di Bologna, con il contributo della Fondazione FAIR – Future Artificial Intelligence Research, di IFAB – International Foundation Big Data and Artificial Intelligence for Human Development e il patrocinio della Regione Emilia Romagna e di IAAIL- International Association for Artificial Intelligence and Law.

Grazie alla sua potenziale capacità di migliorare i servizi a favore delle cittadine e dei cittadini e di sostenere processi di semplificazione delle decisioni pubbliche, l’IA, forte della considerevole attenzione ottenuta a seguito della recente diffusione di modelli generativi come ChatGpt, occupa attualmente un posto di primo piano all’interno delle agende programmatiche dei Governi, impegnati nell’elaborazione di strategie che ne consentano lo sfruttamento. Sforzi che devono tuttavia tener conto degli specifici problemi che l’applicazione di questa tecnologia all’interno dei settori della pubblica amministrazione pone.

“Le iniziative e gli investimenti in materia di Intelligenza Artificiale annunciati e concretizzatisi nell’ultimo periodo sia a livello europeo che dei singoli Stati dell’Unione Europea sembrano delineare un futuro sempre più caratterizzato dalla penetrazione e dalla presenza dell’IA in tutti i settori, pubblica amministrazione compresa. Un processo che solleva difficoltà di natura etica e giuridica, come la necessità di superare barriere organizzative, la non sufficiente disponibilità di dati di qualità e la mancanza di competenze dedicate, che limitano i vantaggi derivanti da un uso consapevole e responsabile di queste tecnologie, e che devono perciò essere superati”, spiega Antonino Rotolo, vicedirettore del Centro ALMA AI dell’università di Bologna e coordinatore del gruppo trasversale in ICSC.

Una ulteriore sfida relativa al corretto utilizzo e adozione dell’IA in ambito pubblico è rappresentata dall’impatto che potrà avere la ricezione e implementazione dell’AI Act, l’insieme di norme sull’Intelligenza Artificiale approvato dal Parlamento Europeo il 13 marzo 2024, da parte dei singoli Stati membri. Il regolamento, che mira alla tutela dei diritti fondamentali dei cittadini, stabilisce infatti principi e misure normative che avranno importanti ricadute all’interno delle PA. È per questo motivo che risulta di fondamentale importanza definire meglio le linee di sviluppo che l’AI Act può determinare nel futuro utilizzo dell’IA nel settore pubblico, al fine di individuare buone pratiche e di evitare una interpretazione frammentata dello stesso regolamento europeo.

“Dal punto di vista regolatorio”, continua Rotolo, “il baricentro dell’AI Act ruota intorno alla valutazione e gestione del rischio giuridico prevenire il più possibile contenziosi. La gestione del rischio derivante dall’adozione dell’IA all’interno della PA richiede quindi da un lato una accurata specificazione degli scenari di utilizzo rispetto ai quali assicurare standard di conformità, dall’altro la realizzazione di misure in grado di bilanciare la riduzione della violazione dei diritti fondamentali che contemplino e la necessità di nuove competenze e modelli organizzativi. Sono queste le raccomandazioni raccolte all’interno del documento ‘L’intelligenza artificiale al servizio della pubblica amministrazione: linee guida scientifiche per un uso responsabile ed etico’, frutto di una collaborazione tra il gruppo trasversale del Centro Nazionale ICSC, FAIR, e Università di Bologna attraverso ALMA AI e SPISA, i cui risultati, che saranno resi pubblici a breve, sono stati anticipati durante l’appuntamento svoltosi oggi.”

Durante l’incontro ‘AI Act: l’Intelligenza Artificiale al servizio della PA’ spazio anche per una riflessione sul ruolo svolto dalle infrastrutture di supercalcolo relativamente all’impatto dell’Intelligenza artificiale e all’adozione dell’AI Act anche nell’ambito della pubblica amministrazione. “La mancanza di tali risorse”, ha illustrato Francesco Ubertini, vicepresidente della Fondazione ICSC e presidente Cineca, “rappresenta, infatti, stando a quanto riportato dallo stesso regolamento europeo, un primo elemento di rischio in grado di determinare disparità connesse all’incapacità di sviluppo e accesso a strumenti quali i general purpose model, il cui addestramento necessita di enormi capacità di calcolo. Per questa ragione, la realizzazione di adeguate infrastrutture di calcolo, come quella italiana che sarà messa a disposizione da ICSC, deve oggi essere considerata da ogni Paese in termini di fornitura di bene pubblico, in quanto elemento a supporto di ricerca, industria e pubblica amministrazione, e fattore abilitante la formazione delle nuove competenze digitali indispensabili per l’utilizzo degli strumenti di Intelligenza Artificiale.”

E’ possibile consultare le presentazioni dei relatori e il programma dell’incontro al seguente link:

https://agenda.supercomputing-icsc.it/e/LINTELLIGENZA_ARTIFICIALE_AL_SERVIZIO_DELLA_PUBBLICA_AMMINISTRAZIONE