La collaborazione tra Intel e NVIDIA continua ad evolversi e potrebbe presto tradursi in una delle integrazioni hardware più interessanti degli ultimi anni nel settore PC e AI server.
A confermarlo è stato il CEO di Intel, Lip-Bu Tan, che attraverso un messaggio pubblicato su X ha ribadito come le due aziende stiano ancora lavorando insieme allo sviluppo di “nuovi prodotti entusiasmanti”.
La dichiarazione arriva dopo la cerimonia organizzata dalla Carnegie Mellon University, che ha conferito a Jensen Huang, CEO di NVIDIA, un dottorato honoris causa in Scienza e Tecnologia per il contributo dato al settore dell’intelligenza artificiale e del calcolo accelerato.
Ma dietro il valore simbolico dell’evento emergono indicazioni concrete sul futuro delle due aziende e sulla possibile nascita di un ecosistema condiviso tra architetture x86 Intel e tecnologie grafiche NVIDIA.
GeForce RTX integrate nei SoC Intel
Uno degli aspetti più rilevanti della collaborazione riguarda la possibile integrazione di GPU NVIDIA GeForce RTX direttamente all’interno di package Intel.
Secondo le indiscrezioni, il progetto ruoterebbe attorno a una nuova piattaforma x86 chiamata “Serpent Lake”, destinata a diventare il primo chip Intel con integrazione grafica basata su IP NVIDIA.
L’approccio ricorda il progetto Kaby Lake G, la storica collaborazione tra Intel e AMD che combinava CPU Intel e grafica Radeon in un unico package.
Questa volta, però, l’obiettivo appare molto più ambizioso:
- integrazione diretta di GPU RTX;
- accelerazione AI locale;
- gaming avanzato;
- workload creator;
- inferenza neurale su notebook e sistemi compatti.
Un ecosistema Intel-NVIDIA più profondo
La partnership sembra andare oltre la semplice integrazione hardware.
Negli ultimi anni NVIDIA ha progressivamente ampliato il proprio ecosistema AI, costruendo piattaforme sempre più complete che combinano:
- GPU acceleratrici;
- CPU custom ARM Grace;
- networking ad alta velocità;
- software AI;
- infrastrutture SuperPOD.
In questo scenario Intel potrebbe diventare un partner strategico per la componente x86 server, offrendo CPU Xeon personalizzate destinate ai sistemi AI NVIDIA.
Xeon custom per server AI NVIDIA
Secondo le informazioni emerse, Intel starebbe lavorando a varianti personalizzate delle future CPU Xeon dedicate ai nodi AI HGX di NVIDIA.
L’azienda produce già soluzioni custom per hyperscaler come Amazon e potrebbe ora espandere questa strategia verso il mercato AI enterprise.
Le future piattaforme potrebbero includere:
- CPU ottimizzate per acceleratori NVIDIA;
- supporto NVLink integrato;
- frequenze elevate per workload AI;
- configurazioni custom per SuperPOD.
Clearwater Forest e Diamond Rapids
Tra le architetture citate emergono due progetti server molto importanti per Intel:
Clearwater Forest
Basata sul nodo produttivo Intel 18A, questa famiglia Xeon utilizzerà fino a:
- 288 core Darkmont E-Core;
- design chiplet avanzato;
- elevata densità compute;
- ottimizzazione per data center AI.
Diamond Rapids
La futura generazione high-performance Xeon introdurrà:
- fino a 192 P-Core;
- supporto NVLink;
- integrazione avanzata con acceleratori NVIDIA;
- focus su AI e HPC.
La presenza del supporto NVLink rappresenta un elemento particolarmente significativo, perché consentirebbe una comunicazione diretta e ad altissima velocità tra CPU Intel e GPU NVIDIA.
NVIDIA punta a diversificare le CPU nei sistemi AI
Attualmente NVIDIA utilizza principalmente le proprie CPU ARM Grace nei sistemi AI più avanzati, ma continua anche a impiegare processori x86 all’interno delle infrastrutture enterprise.
Una collaborazione stretta con Intel consentirebbe all’azienda di:
- diversificare l’offerta server;
- aumentare compatibilità software;
- sfruttare ecosistemi x86 consolidati;
- ottimizzare cluster AI multi-GPU.
Serpent Lake potrebbe ridefinire il mercato notebook
Sul fronte consumer, l’eventuale arrivo di SoC Intel con GPU RTX integrate potrebbe avere un forte impatto sul mercato notebook premium.
Una soluzione di questo tipo potrebbe offrire:
- grafica RTX in package compatto;
- minori consumi;
- migliore integrazione termica;
- accelerazione AI integrata;
- gaming avanzato su notebook sottili.
Il progetto potrebbe inoltre rafforzare il posizionamento Intel nel segmento AI PC, oggi sempre più strategico per l’intero settore hardware.
Il precedente Kaby Lake G
Il riferimento più immediato resta Kaby Lake G, la piattaforma lanciata anni fa da Intel in collaborazione con AMD.
Quel progetto integrava:
- CPU Intel Core;
- GPU Radeon Vega;
- memoria HBM2;
- package multi-chip.
Sebbene l’iniziativa non abbia avuto grande continuità commerciale, ha dimostrato la fattibilità tecnica delle integrazioni cross-vendor.
Con NVIDIA, però, il contesto appare molto diverso: l’intelligenza artificiale è oggi il motore principale dell’industria semiconduttori.
Conclusione
Le dichiarazioni di Lip-Bu Tan confermano che la collaborazione tra Intel e NVIDIA sta entrando in una fase più concreta e strategica.
Dall’integrazione di GPU GeForce RTX nei SoC Intel fino alle future CPU Xeon ottimizzate per infrastrutture AI NVIDIA, le due aziende sembrano intenzionate a costruire un ecosistema sempre più interconnesso per il mercato consumer, professionale e data center.
HW Legend Staff














