È da oggi consultabile online la prima versione del documento contenente le “Raccomandazioni per un uso responsabile ed etico dell’Intelligenza Artificiale nella Pubblica Amministrazione”. Frutto di una collaborazione tra il Societal Implications and Impact Research Group del ICSC – Centro Nazionale di Ricerca in HPC, Big Data e Quantum Computing e Università di Bologna attraverso ALMA AI e SPISA, la pubblicazione raccoglie linee guida non strettamente operative ma di principio, che calano le ricerche preliminari condotte dal gruppo di ricerca autore del lavoro nel contesto del quadro normativo nazionale ed europeo sull’Intelligenza Artificiale, prendendo in esame il possibile impatto di quest’ultimo all’interno della Pubblica Amministrazione italiana.

L’Intelligenza Artificiale (AI), anche grazie alla recente diffusione di grandi modelli generativi, ha raggiunto una nuova fase di visibilità, di aspettative e di investimenti globali. Governi di tutto il mondo, Italia inclusa, stanno elaborando strategie anche per lo sfruttamento nel settore pubblico del potenziale dell’AI. L’AI offre infatti la possibilità di migliorare i servizi a favore delle cittadine e dei cittadini e di sostenere le decisioni pubbliche attraverso simulazioni e altre metodologie. Nonostante ciò, l’adozione dell’AI nelle amministrazioni pubbliche pone specifici problemi etici e giuridici e numerose sfide, come la necessità di superare gli ostacoli –le barriere organizzative, la necessità di infrastrutture con alte capacità di calcolo, la mancanza di dati di qualità e l’insufficiente diffusione delle competenze necessarie– che limitano i vantaggi di queste tecnologie e ne ostacolano l’uso consapevole e responsabile.

L’Europa ha aperto nuove prospettive per l’AI nella PA con l’approvazione, il 13 marzo 2024 nel Parlamento Europeo, del Regolamento sull’Artificial Intelligence (AI Act) (AIA) per garantire che l’AI in Europa sia sicura e affidabile e che rispetti i diritti fondamentali e i principi fondativi della democrazia e dello Stato di diritto. Se l’impatto generale dell’AI sulla PA costituisce una questione che ha già ricevuto ampia attenzione nella comunità scientifica, è invece necessario identificare meglio le linee di sviluppo che l’AI Act può determinare nel futuro utilizzo dell’AI nel settore pubblico. Il regolamento, infatti, stabilisce alcuni principi e soluzioni normative che, nella PA, avranno indubbie conseguenze sia sotto il profilo dei principi etici e del rispetto dei diritti fondamentali, sia in relazione ai metodi di analisi del rischio giuridico, sia in relazione alla necessità di nuove competenze e modelli organizzativi.

L’Italia già da tempo ha sviluppato strategie per l’uso dell’AI nella PA, inizialmente a partire dal Libro Bianco AgID e successivamente dal Programma strategico Intelligenza Artificiale 2022-2024. Il Piano triennale AgID per l’informatica nella Pubblica Amministrazione 2024-2026 segna il quadro generale in coincidenza con l’AIA preannunciando entro il 2024 linee guida per l’adozione dell’intelligenza artificiale, linee guida per il procurement dell’intelligenza artificiale e linee guida per lo sviluppo di applicazioni dell’AI. A valle dell’approvazione dell’AI Act, e ad integrazione del Piano triennale 2024-2026, AgID ha formulato un decalogo di punti di attenzione sull’adozione dell’AI nella PA alla luce dell’AIA.

Vi invitiamo a contribuire con commenti e suggerimenti all’elaborazione degli aggiornamenti delle ‘Raccomandazioni per un uso responsabile ed etico dell’Intelligenza Artificiale nella Pubblica Amministrazione’ compilando il seguente form: Call_for_Collaboration_Sviluppo_Raccomandazioni