NVIDIA ha annunciato una partnership strategica pluriennale e multigenerazionale con Meta che copre infrastrutture on-premises, cloud e rollout AI su larga scala.
L’accordo segna un passaggio chiave: NVIDIA non è più soltanto sinonimo di GPU, ma propone un ecosistema completo che integra CPU, acceleratori AI e networking ad alte prestazioni in un’unica architettura co-progettata.
Primo deployment su larga scala delle CPU Grace
Uno degli elementi più rilevanti dell’intesa è il primo deployment massivo “Grace-only” delle CPU NVIDIA Grace CPU basate su architettura Arm.
Meta utilizzerà le Grace per applicazioni di produzione nei propri data center hyperscale, puntando su:
Miglioramenti significativi nel performance-per-watt;
Ottimizzazione software a livello di librerie CPU;
Codesign tra i team ingegneristici delle due aziende.
Il concetto di performance per watt emerge come parametro centrale. Nei data center AI moderni, il limite non è solo la potenza computazionale disponibile, ma anche l’energia elettrica erogabile e dissipabile. In questo scenario, l’efficienza energetica diventa un fattore strategico tanto quanto le performance assolute.
Verso il 2027: Vera CPU e cluster Vera Rubin
La collaborazione si estende anche alle future NVIDIA Vera CPU, con potenziale deployment su larga scala previsto intorno al 2027.
Parallelamente, Mark Zuckerberg ha confermato l’intenzione di costruire cluster AI di nuova generazione denominati Vera Rubin, che combineranno:
CPU Vera di nuova generazione;
GPU AI Rubin;
Acceleratori della linea Blackwell.
Meta adotterà sistemi basati su NVIDIA GB300, consolidando una piattaforma unificata capace di gestire sia workload di training sia inferenza su scala globale.
Networking AI-scale con Spectrum-X
L’accordo include l’adozione estesa della piattaforma di networking NVIDIA Spectrum-X.
Questa soluzione Ethernet è progettata per ambienti AI ad altissima densità e offre:
Latenza prevedibile e ridotta;
Massima saturazione delle GPU;
Maggiore efficienza operativa ed energetica.
Spectrum-X verrà integrato anche nella piattaforma Facebook Open Switching System di Meta, abilitando una rete coerente tra data center on-prem e infrastruttura cloud.
Confidential Computing per WhatsApp
Un altro tassello fondamentale è l’adozione di NVIDIA Confidential Computing per l’elaborazione privata su WhatsApp.
L’obiettivo è abilitare funzionalità AI avanzate mantenendo:
Confidenzialità dei dati;
Integrità delle elaborazioni;
Isolamento sicuro dei carichi sensibili.
Le due aziende intendono estendere queste capacità anche ad altri servizi del portfolio Meta, rafforzando l’approccio “privacy-enhanced AI”.
Architettura unificata: training e inferenza sotto lo stesso stack
Meta costruirà data center hyperscale ottimizzati sia per il training di modelli di nuova generazione sia per l’inferenza su larga scala.
Il valore aggiunto della partnership risiede nella stretta integrazione tra:
CPU (Grace e Vera);
GPU (Blackwell e Rubin);
Networking (Spectrum-X);
Sicurezza (Confidential Computing).
Questa integrazione full-stack consente ottimizzazioni verticali difficilmente replicabili in ambienti multi-vendor, migliorando efficienza, scalabilità e utilizzo delle risorse.
AI, energia e scalabilità: il vero campo di battaglia
I data center AI rappresentano oggi uno dei carichi energetici più intensivi dell’intero settore IT. In questo contesto, il focus di NVIDIA sul performance-per-watt non è solo marketing: è una necessità infrastrutturale.
Con la potenza elettrica che diventa risorsa critica, la domanda non è più soltanto “quanto è veloce?”, ma “quanto è efficiente su larga scala?”.
La partnership dimostra che Meta intende continuare a investire massicciamente in hardware AI, puntando sia sulle tecnologie attuali sia sulle prossime generazioni NVIDIA.
In sintesi, non si tratta solo di acquistare GPU: è la costruzione di un ecosistema AI integrato, energeticamente sostenibile e progettato per operare su scala globale per miliardi di utenti.
HW Legend Staff














