L'infrastruttura HPC è composta da alcuni supercalcolatori, in particolare l'ultimo arrivato MARCONI100 che si è classificato nel giugno 2020 al 9° posto della Top500 e MARCONI, che si è classificato nel 2016 al 12° posto della Top500, mantenendosi fra i primi venti fino a Novembre 2019.
MARCONI100
È il nuovo sistema accelerato disponibile per la ricerca italiana da aprile 2020. Si tratta di un sistema IBM dotato di NVIDIA Volta V100GPU, che apre la strada al supercomputer accelerato pre-esascale Leonardo.
MARCONI
E' il sistema Tier-0 che ha sostituito FERMI a luglio 2016. È basato sulla piattaforma LENOVO NeXtScale e sulla prossima generazione della famiglia di prodotti Intel Xeon Phi. È stato gradualmente completato dal 2016 in circa 12 mesi e oggi è composto dalla partizione Marconi-A3 con SkyLake, aggiornato a gennaio 2018 e a novembre 2018. Le altre due partizioni Marconi-A1 con Intel Broadwell, in produzione da luglio 2016 a settembre 2018 e Marconi-A2 con Intel KnightsLanding in produzione da gennaio 2017 a dicembre 2019 sono chiuse alla produzione.
GALILEO
E' stato rinnovato ad agosto 2019 con i nodi Intel Xeon E5-2697 v4 (Broadwell) ed a partire da marzo 2021 verrà spento e rinnovato nella nuova più performante infrastruttura Galileo100 che sarà in piena produzione dal luglio 2021.
DGX
È il sistema accelerato NVIDIA A100 disponibile da gennaio 2021, particolarmente adatto ai framework di Deep Learning. Si tratta di un sistema AMD a 3 nodi dotato di 8 GPU NVIDIA A100 Tensor Core per nodo.
CPU (mhz,core, ...) | Total cores / Total Nodes | Memory per node | Accelerator | Notes | |
MARCONI-A3 |
Intel SkyLake |
1791552 / 3188 | 192 GB | - | |
MARCONI100 |
IBM Power9 AC922 |
31360 / 980 | 256 GB | 4x NVIDIA Volta V100 GPUs, NVlink 2.0 16 GB |
|
DGX | AMD 2x Rome 7742 @2.6GHz 32 cores HT 2 each |
384/3 | 980 GB | 8x NVIDIA A100 Tensor Core GPUs, NVlink 3.0 80 GB |
|
GALILEO100 |
Intel CascadeLake 8260 |
528+36 | 384GB | 2x NVIDIA GPU V100 |
Archiviazione dei dati
Lo spazio dedicato all'archiviazione dei dati è gestita in diversi modi a seconda delle richieste degli utenti:
- area di scratch: ogni sistema ha la propria area scratch locale (indicata dalla variabile ambientale $CINECA_SCRATCH)
- area di lavoro: una memoria di lavoro è montata sui tre sistemi (indicato dalla variabile ambientale $WORK)
- area DRes (Data Resources): un'area di archiviazione condivisa è montata su tutti i nodi di accesso delle macchine (indicato dalla variabile ambientale $DRES)
- area Tape: una libreria di nastri (12 PB, espandibile a 16PB) è collegata all'area di archiviazione DRes come archivio multi-livello (tramite LTFS)
Scratch (local) | Work (local) | DRes (shared) | Tape (shared) | |
MARCONI | 2.5 PB | 7.5 PB | 6.5 PB | 20 PB |
GALILEO | 300 TB | 1500 TB |
Tour virtuale della sala macchine Cineca