NVIDIA, durante l’atteso evento del GTC 2022, ha annunciato diverse novità in ambito hardware AI. Tra queste segnaliamo la nuova architettura Hopper di prossima generazione, le prime schede video per datacenter basate su di essa e una “super CPU” sempre per datacenter.
L’azienda ha inoltre rilasciato l’intenzione di voler costruire il più veloce supercomputer AI al mondo, senza però rilasciare molte indiscrezioni. Iniziamo col parlarvi della nuova architettura Hopper, il cui nome richiama quello della pioniera dell’informatica Grace Hopper.
L’azienda si è fortemente concentrata nel voler garantire un sostanzioso miglioramento delle prestazioni di uno dei sistemi di machine learning, noto come Transformer, usato per esempio da DeepMind di Google/Alphabet per il suo algoritmo AlphaFold. NVIDIA sostiene che rispetto alla precedente generazione di chip, l’architettura accelera questi calcoli fino a sei volte sulle GPU H100.
L’incremento potrebbe essere ancora superiore grazie a una serie di ulteriori innovazioni relative al chip e alla GPU. Le H100 sono schede con ben 80 miliardi di transistor e sono le prime a supportare la tecnologia PCIe di quinta generazione. Tale soluzioni adottano le memorie HBM3 in grado di garantire una banda complessiva di ben 3 TB/s. La tecnologia NVlink di quarta generazione permette di connettere fino a 256 schede in serie con una banda 9 volte più ampia rispetto a quella della precedente generazione.
NVIDIA afferma che grazie alle nuove soluzioni H100, i modelli il cui training richiedeva settimane, possono ora essere svolti in qualche giorno. Tale GPU è in grado di triplicare le operazioni a virgola mobile 16, 32 e 64 bit, mentre quelle a 8 bit sestuplicano. Il nuovo chip NVIDIA Grace dispone di due CPU connesse direttamente tramite una tecnologia a bassissima latenza chiamata NVlink-C2C. Tale tecnologia è molto simile a quella denominata UltraFusion, che è presente in Apple sul suo nuovo chip M1 Ultra.
Tale chip dispone di ben 144 core Arm v9, le cui caratteristiche non sono state svelate. Ad oggi sappiamo che la RAM adottata è di tipo LPDDR5x con ECC e che la banda di memoria totale è di 1 TB/s. NVIDIA spiega che tale chip può essere impiegato sia in sistemi CPU-only sia in quelli accelerati con GPU. Interessante infine segnalare come la tecnologia NVlink-C2C può essere usata per combinare una CPU con una GPU, creando quindi un superchip “Grace Hopper”.
NVIDIA ha inoltre parlato di quello che potrebbe essere il più veloce supercomputer AI al mondo. Per l’esattezza stiamo parlando di Eos che dovrebbe disporre di 576 sistemi basati su DGX H100, ognuno dei quali dispone di 8 GPU con ben 4.608 GPU AI di ultima generazione.
La potenza di Eos dovrebbe raggiungere ben 18,4 esaFLOPS nelle operazioni AI, quattro volte quelle del supercomputer giapponese Fugaku, attualmente il più potente sistema e punto di riferimento del settore. È quindi molto probabile che quando entrerà in funzione, prima della fine di quest’anno, diventerà il computer AI più potente al mondo.
Eos sarà infine decisamente performante anche nelle operazioni scientifiche tradizionali, in quanto la sua potenza prevista è di 275 petaFLOPS. A titolo comparativo, l’attuale leader, sempre il Fugaku, si spinge fino a 537, mentre in seconda posizione si trova l’IBM Summit con 200.
HW Legend Staff