Lo Spoke 1 FutureHPC & BigData è il pilastro tecnologico di ICSC che abbraccia lo sviluppo di tecnologie hardware e software altamente innovative per i super-calcolatori e i sistemi di calcolo del futuro. Le attività di ricerca e sviluppo pianificate nello Spoke sono organizzate in 5 “flagship” scientifico-tecnologiche che sono le unità operative della ricerca e che sono partecipate da 15 università (e istituti di ricerca) e 9 grandi industrie: Univ. Bologna, Torino, Pisa, Padova, Napoli, Catania, Calabria, Roma Tor Vergata, Ferrara, Politecnico di Milano e Torino, INAF, CINECA, ENEA, IIT, Autostrade, ENI, Engineering, Fincantieri, Intesa SanPaolo, Leonardo Company, Sogei, ThalesAlenia spazio, UnipolSai e iFAB.
Oltre le attività scientifiche che si svolgono nelle flagship, lo Spoke FutureHPC implementa due living lab, dei laboratori fisici co-locati nelle università leader (UNIBO e UNITO) che raccolgono contributi scientifici da tutte le flagship con l’obiettivo di realizzare dei prototipi e dimostratori delle tecnologie più promettenti, di sostenere il trasferimento tecnologico e la costruzione di una prospettiva di sostenibilità per le attività dello Spoke oltre la finestra di finanziamenti sostenuti dal PNRR (2022-2026). I due living lab puntano a definire un esempio paradigmatico di l’innovazione in ambito tecnologico costruito sulla contaminazione fra accademia e industria.
Oltre a servire da presidio tecnologico per tutti i partecipanti allo Spoke, i living lab ambiscono a realizzare un centro federato nazionale di livello mondiale con competenze per la co-progettazione hardware e software, e di rafforzare la leadership italiana nell’Impresa Comune Europea (Joint Undertaking) EuroHPC e nell’ecosistema dell’infrastruttura dei dati per la scienza e per l’industria.
Scientificamente, lo Spoke FutureHPC affronta i temi di ricerca principali legati al calcolo moderno: il calcolo ad alte prestazioni e le sfide del calcolo scientifico, ma anche le applicazioni di interesse per mercati con grandi volumi, come cloud e edge computing, gateway IoT, veicoli autonomi, alle sfide dell’intelligenza artificiale per cui sono essenziali sistemi (hardware + software) di calcolo aperti, efficienti dal punto di vista energetico e ad alte prestazioni.
L’investimento sulle licenze aperte come metodologia
Metodologicamente, FutureHPC scommette sulle licenze aperte (open hardware, open source software, open standards) come booster per l’innovazione in ambito tecnologico. Per il software di sistema e le più diffuse applicazioni il modello open source ha già dimostrato il suo grande vantaggio competitivo rispetto al modello closed source sia per quanto riguarda la qualità del prodotto che per la sua capacità di sostenere un modello di business di grande successo industriale. I sistemi cloud/edge più diffusi al mondo adottano soluzioni open source, a partire dalle compagnie Over-the-Top (Google, Facebook, Oracle, Microsoft, IBM, …) che in molti casi hanno costruito servizi a valore aggiunto (come i servizi cloud) su una base di software che continua ad essere mantenuto con licenza open source a garanzia di affidabilità e trasparenza e che utilizza anche la moltitudine di sviluppatori diffusi in tutto il mondo per verificare e aggiornare continuamente il software garantendo la soluzione di problemi di correttezza e sicurezza. Solo per rimanere nel dominio del software di sistema, sono open source Linux, git, gcc, llvm, MySQL, Node.js, Docker, Hadoop, Spark, MongoDB, Pytorch, OpenStack, SLURM.
Spinta dalla crescente popolarità del set di istruzioni RISC-V, anche la progettazione hardware dei sistemi di calcolo sta progressivamente abbracciando l’approccio aperto sia per quanto riguarda la specifica del set di istruzioni sia per le possibili implementazioni, che possono essere distribuite in forma di sorgente (a vari livelli di specifica del sistema hardware). L’approccio open hardware, grazie alla possibilità di estendere l’insieme delle istruzioni, accompagna la tendenza —tecnologicamente inevitabile— a costruire sistemi ad alte prestazioni assemblando più processori e acceleratori specializzati (piuttosto che a sviluppare grandi processori “general-purpose”). La possibilità di definire nuovi processori a partire da una implementazione corretta, performante e aperta moltiplica le opportunità di ricerca e trasferimento tecnologico sia per i progettisti di sistemi che per gli utilizzatori (che non devono pagare la licenza di uso del set di istruzioni). L’approccio open hardware, accoppiato con open software, ha la potenzialità di innovare e rifondare in modo significativo la geografia mondiale dell’economia basata sul calcolo elettronico.
Gli open standard sono un importante supporto strategico sia per open hardware che software e i loro modelli di business. Gli standard permettono di investire nello sviluppo di sistemi interoperabili che mantengono il loro valore nel tempo. Per esempio, un codice sviluppato secondo lo standard C++20 potrà essere compilato con qualsiasi compilatore aderente allo standard, sia esso prodotto dalla comunità open source (es. gcc), da Microsoft o qualsiasi altra industria che produca compilatori. Allo stesso modo, un processore con set di istruzioni RISC-V (ad una certa versione) potrà eseguire tutte le applicazioni compilate per quel set di istruzioni. Analogamente, una pipeline per applicazioni genomiche espressa secondo lo standard emergente Common Workflow Language (CWL) potrà essere eseguita da tutti i tool che lo implementano (es. StreamFlow, Arvados, Toil, etc.). Per questo la capacità di un ecosistema di ricerca di partecipare e influenzare lo sviluppo degli open standard è direttamente legata alla possibilità di preservare l’investimento in hardware e software e quindi di produrre innovazione.
Fonte: agendadigitale.eu
Leggi l’articolo completo: https://www.agendadigitale.eu/infrastrutture/ecco-i-living-lab-in-hpc-big-data-e-quantum-computing-del-centro-nazionale-di-ricerca/