AMD ha ufficialmente completato la cessione del ramo produttivo di ZT Systems a Sanmina Corporation per un valore di 3 miliardi di dollari, consolidando così la propria strategia di espansione nel settore AI e data center.
L’accordo consente ad AMD di recuperare gran parte dei costi sostenuti per l’acquisizione di ZT Systems avvenuta all’inizio del 2025, mantenendo però un’importante partnership strategica con Sanmina per la produzione futura di infrastrutture cloud.
Una mossa strategica, non industriale
La decisione di AMD conferma l’intento originario dell’acquisizione di ZT Systems: ottenere know-how ingegneristico, non capacità produttiva.
Il colosso di Sunnyvale, infatti, non mira a competere con i propri partner OEM e ODM, ma a rafforzare il proprio ecosistema di soluzioni rack-scale per l’intelligenza artificiale e il cloud computing.
Grazie all’operazione, AMD integra nel proprio organico circa 1.100 ingegneri specializzati, che saranno impiegati nello sviluppo di sistemi AI ad alta densità e infrastrutture di nuova generazione per data center.
Una partnership che punta al cloud e all’AI
Come specificato nel comunicato ufficiale:
“L’innovazione su scala rack rappresenta il prossimo capitolo della strategia data center di AMD,” ha dichiarato Forrest Norrod, vicepresidente esecutivo e general manager della divisione Data Center Solutions di AMD.
“Grazie alla collaborazione con Sanmina, uniamo la forza produttiva statunitense con l’esperienza di AMD nella progettazione di sistemi AI per offrire qualità, velocità e flessibilità su larga scala.”
In base all’accordo, Sanmina diventa partner produttivo preferenziale per le nuove soluzioni cloud e AI di AMD, inclusi i sistemi rack e cluster su misura.
AMD, dal canto suo, mantiene i team di progettazione e abilitazione clienti di ZT Systems, fondamentali per accelerare il time-to-market delle proprie soluzioni AI.
AMD verso un ecosistema AI integrato
Con questa operazione, AMD consolida la propria visione di un ecosistema hardware completamente integrato. Le sue tecnologie CPU, GPU e di interconnessione — già alla base dei supercomputer più potenti — saranno ulteriormente potenziate dall’esperienza ingegneristica acquisita.
L’obiettivo è chiaro: creare soluzioni scalabili e interconnesse per l’AI e il cloud, dove non contano solo le prestazioni del singolo componente, ma la sinergia complessiva dell’intero sistema.
HW Legend Staff












