Lo scorso mese di settembre il colosso di Santa Clara ha tolto i veli sulle tanto attese soluzioni grafiche di fascia alta basate su architettura “Ada Lovelace”, un progetto che come vedremo non stravolge radicalmente quelle che erano le fondamenta della precedente, nonché estremamente valida, architettura Ampere, ma al contrario ne estende ulteriormente le potenzialità, introducendo interessanti novità con l’obiettivo di assicurare prestazioni superiori per il ray-tracing in tempo reale e per la grafica neurale basata sull’intelligenza artificiale. Alla base di queste nuove soluzioni troviamo la più avanzata tecnologia produttiva a 5 nanometri custom NVIDIA (4N), messa a punto dalla taiwanese TSMC, tecnologia che ha reso possibile non soltanto un significativo aumento delle unità di calcolo integrate nella stessa area, ma anche un deciso incremento della frequenza di clock. Nel corso di questo nostro articolo andremo ad osservare una delle ultime proposte della nota e rinomata azienda INNO3D basata sul nuovissimo processore grafico di fascia alta GeForce RTX 4080, precisamente ci occuperemo del modello iCHILL X3 [N40803-166XX-187049H], un’interessante scheda grafica discreta contraddistinta dalla presenza di un imponente ed efficiente sistema di raffreddamento proprietario a tripla ventola. Non ci resta che augurarci che la lettura sia di vostro gradimento!
INNO3D GeForce RTX 4080 16GB iCHILL X3 [N40803-166XX-187049H] – Recensione di Gianluca Cecca | delly – Voto: 5/5
InnoVISION Multimedia Limited, fondata nel 1998 a Hong Kong, è un’azienda pionieristica nello sviluppo e nella produzione di una vasta gamma di prodotti hardware all’avanguardia per PC. Le prime operazioni di produzione iniziarono nel 1990 a Shenzhen, in Cina. In un primo momento l’azienda si concentrò esclusivamente su prodotti OEM / ODM e affidò le attività di ricerca a società specializzate ottenendo un immediato successo presso le principali riviste dedicate alle recensioni di componenti hardware per PC, divenendo una delle aziende asiatiche in più rapida crescita.
L’obiettivo della società è da sempre quello di offrire la migliore esperienza multimediale possibile agli utenti di PC e ai professionisti del settore, offrendo soluzioni innovative ad un prezzo accessibile. A completamento della gamma di prodotti InnoVISION fu introdotto il marchio di successo INNO3D, che comprende una gamma completa di soluzioni grafiche discrete basate su GPU NVIDIA, soluzioni video digitali / capture TV ed editing, schede audio InnoAX di classe high-end ed EIO, ed altre periferiche avanzate.
Il conseguimento da parte dell’azienda della certificazione ISO 9001:2000 assicura non soltanto uno standard di produzione elevato ma anche la massima qualità nella gestione ed efficienza nella distribuzione. La società ed il proprio team di progettisti di talento, sia ad Hong Kong che a Shenzen, sono infatti continuamente impegnati in ricerche di altissimo livello al fine di proporre prodotti sempre più innovativi e tecnologicamente avanzati.
INNO3D vanta un significativo aumento della quota di mercato delle vendite di schede grafiche nel corso degli ultimi anni, grazie a prodotti estremamente competitivi e proposti al giusto prezzo pur senza rinunciare alla qualità ed a un supporto tecnico avanzato per poter soddisfare le esigenze dei clienti di tutto il mondo. Potete trovare maggiori informazioni sul sito ufficiale del produttore.
[nextpage title=”NVIDIA Ada Lovelace: Uno sguardo alla nuova architettura”]
Sin dall’invenzione della prima GPU (Graphics Processing Unit) al mondo nell’ormai lontano 1999, le soluzioni NVIDIA sono state costantemente in prima linea nella grafica 3D e nell’elaborazione accelerata, con accorgimenti mirati a fornire livelli rivoluzionari di prestazioni ed efficienza. La nuovissima famiglia di processori grafici basati su architettura Ada Lovelace non fa ovviamente eccezione, ed è espressamente progettata per accelerare numerose tipologie di applicazioni e carichi di lavoro ad alta intensità, allo scopo di assicurare un livello prestazionale mai visto.
Le declinazioni pensate per il mercato consumer, identificate con i nomi in codice AD10x, riprendono grossomodo quando già osservato in occasione della presentazione delle altrettanto rivoluzionarie soluzioni Ampere, introducendo però una serie di nuove funzionalità e ottimizzazioni, mirate ad ottenere un livello di performance significativamente superiore, raggiungendo quello che l’azienda stessa definisce come il più grande aggiornamento generazionale della sua storia. Il colosso di Santa Clara, infatti, stima come Ada Lovelace sia circa due volte più veloce nei carichi di lavoro basati sulla tradizionale rasterizzazione e fino a ben quattro volte più veloce nel ray-tracing in tempo reale.
Ancora una volta vengono puntati i riflettori su quello che molti definiscono come il “Santo Graal” nel campo del rendering grafico computerizzato, ovvero il ray-tracing in tempo reale, anche in sistemi a singola GPU. I nuovi processori grafici NVIDIA basati su architettura Ada Lovelace, infatti, implementano migliori e ancor più sofisticate unità dedicate all’esecuzione delle operazioni di ray-tracing (denominate per l’appunto “RT Cores”), eliminando così dispendiosi e poco efficienti approcci basati sull’emulazione software. Queste nuove unità, combinate con la tecnologia software proprietaria NVIDIA RTX e con sofisticati algoritmi di filtraggio, consentono un rendering in ray-tracing in tempo reale, includendo oggetti e ambienti fotorealistici con ombre, riflessi e rifrazioni fisicamente precise.
La nuova architettura, tuttavia, non solo migliora le già ottime funzionalità introdotte nella passata generazione, atte a migliorare le prestazioni, la qualità dell’immagine ed offrire nuovi livelli di complessità geometrica, ma ne introduce di nuove, tra cui l’interessante tecnologia Shader Execution Reordering (SER), che osserveremo con più attenzione più avanti. Non mancano poi tutti i miglioramenti apportati alla piattaforma CUDA dedicati alla capacità, alla flessibilità, alla produttività e alla portabilità delle applicazioni di elaborazione. Funzioni quali la programmazione indipendente dei Thread, il Multi-Process Service (MPS) accelerato via hardware, e gruppi cooperativi fanno tutti parte di questa nuova architettura NVIDIA.
Ada Lovelace è inoltre la prima architettura ad essere sviluppata con l’avanzata tecnologia produttiva a 5 nanometri custom NVIDIA (4N), messa a punto dalla taiwanese TSMC e capace di garantire non soltanto un deciso incremento dell’efficienza energetica ma soprattutto di offrire la possibilità di integrare un maggior quantitativo di unità di calcolo, grazie ad una densità superiore, oltre che nuove funzionalità all’interno del processore grafico. NVIDIA ha da tempo dimostrato in modo inequivocabile come una migliore tecnologia produttiva possa incidere in maniera decisa nella fase di progettazione dell’architettura, consentendo agli ingegneri di apportare modifiche e ottimizzazioni particolari, come il perfezionamento delle latenze e la pulizia dei vari segnali, mirate a garantire prestazioni e frequenze operative in precedenza impensabili, pur senza stravolgerne le fondamenta.
Nei paragrafi che seguono andremo a descrivere quelle che sono le più significative differenze e novità introdotte con la nuova architettura.
Ada Streaming Multiprocessor (SM), Cache e Unità Tensor Cores di quarta generazione
Innanzitutto, è fondamentale precisare che, rispetto alla passata generazione, non è stato previsto uno stravolgimento di quella che è la struttura interna delle unità Streaming Multiprocessor (SM) bensì, al contrario, osserviamo sostanzialmente un marcato incremento del loro quantitativo all’interno del processore grafico, reso possibile dall’impiego di un più avanzato processo produttivo.
Riconfermata quella che al debutto di Ampere fu tra le più rilevanti differenze rispetto alla precedente architettura, ovvero l’elaborazione delle operazioni in virgola mobile (FP32) a doppia velocità. Secondo la stessa NVIDIA, questo genere di operazioni rappresenta la maggior parte del carico di lavoro medio in ambito grafico, di conseguenza il tipo di approccio adottato per la loro elaborazione rappresenta un punto chiave per l’incremento sia dell’efficienza che delle pure prestazioni.
Per capire meglio di cosa stiamo parlando è però doveroso fare un piccolo passo indietro, ed osservare quello che accadeva in precedenza all’interno del processore grafico. Fino alle soluzioni Turing, ogni partizione SM poteva seguire due datapath principali, uno per l’elaborazione di operazioni su interi (INT32) e uno per l’elaborazione di operazioni virgola mobile (FP32). Questo offriva la possibilità di elaborare, per ogni ciclo di clock, un massimo di 16 operazioni INT32 e di 16 operazioni FP32.
Con la successiva architettura Ampere abbiamo assistito ad un cambiamento abbastanza significativo; entrambi i datapath principali furono resi in grado di elaborare operazioni FP32 (il primo percorso capace di combinare INT32 ed FP32, mentre il secondo solamente FP32), con il risultato che ogni partizione SM avrebbe potuto processare, per ogni ciclo di clock, o le solite 16 operazioni INT32 + 16 operazioni FP32, oppure un massimo di ben 32 operazioni FP32, assicurando quindi un raddoppio del throughput.
I carichi di lavoro dei moderni videogiochi 3D prevedono un’ampia gamma di esigenze di elaborazione. Molti di questi si basano su un mix di istruzioni aritmetiche FP32, come FFMA, addizioni in virgola mobile (FADD) o moltiplicazioni in virgola mobile (FMUL), insieme a molte istruzioni intere più semplici per indirizzare e recuperare dati, confrontare o elaborare i risultati. L’aggiunta di funzionalità in virgola mobile al secondo percorso dati è stata indubbiamente in grado di assicurare un contributo notevole.
Ovvio che i miglioramenti delle prestazioni varieranno a livello di shader e applicazione a seconda della combinazione di istruzioni; più vi sarà uno sfruttamento pesante in termini di operazioni in virgola mobile e più la differenza in performance rispetto alle architetture precedenti ad Ampere sarà marcata. NVIDIA aveva evidenziato come il raddoppio del throughput FP32 incida anche in ambito Ray-Tracing, precisamente per quanto riguarda le operazioni di Denoising, oppure in applicativi professionali quali V-Ray e similari.
Del tutto invariato il quantitativo di unità SM per ogni blocco TPC (Thread/Texture Processing Clusters), sempre pari a due unità, così come in Turing. Ognuna di queste integra al proprio interno 64 core FP32/INT32 e altrettanti core FP32, di tipo concurrent, ovvero in grado di operare in parallelo e contemporaneamente. Il colosso californiano, infatti, aveva sottolineato un deciso incremento dell’efficienza, ricordando che per ogni 100 istruzioni in virgola mobile il processore grafico si trova a dover processare almeno 36 istruzioni di tipo integer, e sottolineando così come la possibilità di operare in parallelo e in contemporanea su l’una o l’altra tipologia di istruzione rappresenti un punto chiave delle moderne architetture grafiche.
Ad essere radicalmente rivista ed ottimizzata è stata l’architettura della Cache e della memoria condivisa (Shared Memory), basata su un design di tipo unificato in grado di essere riconfigurato a seconda del carico di lavoro per allocare più memoria per la L1 o per la memoria condivisa a seconda delle necessità. La capacità della cache di dati L1 è sempre pari a 128 KB per ogni SM. In modalità di calcolo sono ancora una volta supportate le seguenti configurazioni:
- 128 KB L1 + 0 KB Shared Memory;
- 120 KB L1 + 8 KB Shared Memory;
- 112 KB L1 + 16 KB Shared Memory;
- 96 KB L1 + 32 KB Shared Memory;
- 64 KB L1 + 64 KB Shared Memory;
- 28 KB L1 + 100 KB Shared Memory.
Oltre ad incrementare le dimensioni complessive della memoria cache L1 del 70%, passando dai 10.752KB di GA102 a ben 18.432KB della nuova soluzione di punta AD102, è stata enormemente ampliata anche la memoria cache di secondo livello (L2), raggiungendo nella declinazione completa del nuovo processore grafico, un quantitativo di ben 98.304KB, ovvero ben sedici volte in più rispetto ai 6.144KB presenti nella precedente soluzione di pari fascia.
L’azienda afferma che un tale quantitativo di veloce memoria cache a disposizione assicurerà un deciso beneficio nella maggior parte delle applicazioni, con particolare propensione verso quelle particolarmente complesse come il Ray Tracing, e più nello specifico nel path tracing. Sempre all’interno dello Streaming Multiprocessor (SM), troviamo le unità computazionali specifiche che hanno rappresentato il vero e proprio punto di svolta rispetto alle architetture pre-Turing, ovvero Tensor Cores e RT Cores, giunte rispettivamente alla quarta e alla terza generazione.
Non cambia il loro quantitativo all’interno di ognuna delle unità SM, sempre pari a 4 unità Tensor Cores a precisione mista, ed 1 unità RT Cores che analizzeremo nel dettaglio più avanti. Prendendo quindi come esempio la variante completa del nuovo processore grafico di fascia alta AD102, troviamo implementati un totale di 576 Tensor Cores, come anticipato 4 per ognuna delle unità SM presenti, e 1 per ogni blocco di elaborazione previsto all’interno della SM stessa.
Le unità Tensor Cores osservate in occasione della presentazione dell’architettura Turing, introducevano le modalità di precisione INT8 e INT4, capaci di gestire operazioni quantistiche e supportavano appieno, inoltre, la modalità FP16 per carichi di lavoro che richiedono un maggior livello di precisione. Successivamente, con l’architettura Ampere, le unità furono riorganizzate allo scopo di migliorarne l’efficienza e ridurre il consumo energetico. Fu inoltre prevista l’accelerazione di più tipi di dati e venne implementato il supporto hardware per l’elaborazione di matrici con pattern sparsi, assicurando un raddoppio del throughput anche grazie alla possibilità di saltare elementi non necessari.
Venne anche introdotto il supporto alle nuove modalità di precisione TF32 e BFloat16 dedicate ad alcune funzionalità basate sull’intelligenza artificiale dei servizi neurali NVIDIA NGX. Grazie ai Tensor Cores abbiamo visto sdoganare il deep-learning anche in ambito gaming; nello specifico vengono accelerate alcune funzionalità basate sull’intelligenza artificiale al fine di migliorare la qualità grafica nei titoli di nuova generazione, il rendering ed altre applicazioni lato client. Alcuni esempi di funzionalità NGX AI sono il Deep-Learning Super-Sampling (DLSS), l’AI Super Resolution (con supporto fino a 8K), l’app NVIDIA Broadcast per comunicazioni video e vocali ottimizzate con AI e l’app NVIDIA Canvas per la pittura basata su AI.
Con la quarta generazione delle unità Tensor Cores vengono riconfermante tutte queste funzionalità, ma grazie alle varie ottimizzazioni architetturali vengono assicurate prestazioni più che doppie, in termini di “Tensor TFLOPS”, con tutte le modalità di precisione sopra elencate (FP16, BF16, TF32, INT8 e INT4).
In aggiunta viene proposto, al pari delle complesse soluzioni datacenter basate su architettura Hopper, il pieno supporto al Transformer Engine (TE), una libreria per l’accelerazione dei modelli Transformer tramite GPU, in questo caso con precisione in virgola mobile a 8-bit (FP8), capace di assicurare prestazioni migliori con un utilizzo della memoria inferiore sia nell’addestramento che nell’inferenza. NVIDIA afferma che la nuova GeForce RTX 4090 sia in grado di garantire ben 1.3PetaFLOPS di calcoli tensor.
Sottosistema di Memoria GDDR6X by Micron Technology
Poiché le risoluzioni dello schermo continuano ad aumentare, le funzionalità shader e le tecniche di rendering diventano sempre più complesse, la larghezza di banda e la capacità complessiva della memoria video dedicata giocano un ruolo sempre più rilevante nelle prestazioni dei moderni processori grafici. Per mantenere un livello di frame rate e una velocità di calcolo più elevati possibili, la GPU non solo ha bisogno di più larghezza di banda di memoria, ma necessita anche di un ampio quantitativo di memoria dedicata da cui attingere per offrire prestazioni costanti e sostenute.
Proprio per questi motivi NVIDIA lavora da diverso tempo a stretto contatto con le principali realtà dell’industria DRAM, così da implementare in ogni sua GPU la migliore e più avanzata tecnologia di memoria disponibile. Se in passato abbiamo assistito a soluzioni grafiche dotate, per la prima volta in assoluto, di prestanti ed innovative HBM2, GDDR5X e GDDR6, con Ampere abbiamo assistito al debutto ufficiale, in ambito consumer, delle nuovissime memorie GDDR6X messe a punto da Micron Technology.
Certamente questa nuova tipologia ha rappresentato un grande passo avanti nella progettazione della memoria DRAM GDDR ad elevate prestazioni, tuttavia non bisogna pensare che la sua implementazione non abbia richiesto comunque notevoli sforzi. Gli ingegneri NVIDIA, infatti, hanno dovuto ridisegnare completamente il circuito I/O ed il canale di comunicazione tra la GPU e i moduli di memoria stessi, al fine di garantire la massima stabilità ed efficienza a frequenze di funzionamento così elevate.
Con le nuovissime soluzioni Ada Lovelace viene riconfermato l’impiego delle GDDR6X, ma rispetto alle precedenti proposte di fascia alta Ampere è stata ulteriormente incrementata la velocità dei moduli, raggiungendo quota 22,4Gbps nelle soluzioni GeForce RTX 4080, la più alta finora osservata su una GPU con sottosistema di memoria GDDR. Allo stesso modo, con la nuova proposta di punta GeForce RTX 4090 viene raggiunta una notevole larghezza di banda di picco, pari a ben 1TB/s.
Per ottenere questo, sono state introdotte innovative tecnologie di trasmissione del segnale e di modulazione di ampiezza dell’impulso, così da ridefinire completamente il modo in cui il sottosistema di memoria sposta i dati. Utilizzando le tecniche di segnale multi-livello PAM4, GDDR6X trasferisce più dati e a una velocità molto più veloce, spostando due bit di informazioni alla volta e raddoppiando la velocità di dati I/O del precedente schema di segnale PAM2/NRZ. I carichi di lavoro affamati di dati, come inferenza AI, Ray-Tracing in tempo reale e rendering video a risoluzione fino ad 8K, possono ora essere alimentati con dati a velocità elevate, aprendo nuove opportunità per il computing e nuove esperienze per l’utente finale.
Nell’immagine riportata poco sopra si nota come la stessa quantità di dati può essere trasferita attraverso l’interfaccia GDDR6X a una frequenza dimezzata rispetto a GDDR6. In alternativa, GDDR6X può raddoppiare la larghezza di banda effettiva rispetto a GDDR6 a una determinata frequenza operativa. Il supporto PAM4 rappresenta un grande aggiornamento rispetto all’NRZ a due livelli previsto nelle memorie GDDR6. Invece di trasmettere due bit di dati ogni ciclo di clock (un bit sul fronte di salita e un bit sul fronte di discesa del clock), PAM4 invia due bit per fronte di clock, codificati utilizzando quattro diversi livelli di tensione. I livelli di tensione sono divisi in passi di 250mV, con ogni livello che rappresenta due bit di dati – 00, 01, 10 o 11 inviati su ogni fronte di clock (sempre tecnologia DDR).
Con il nuovo design viene ridotto al minimo il rumore e le variazioni dovute al processo, alla temperatura e alla tensione di alimentazione, inoltre, grazie ad un più ampio clock-gating viene notevolmente ridotto il consumo di energia durante i periodi di minore utilizzo, con conseguente e significativo miglioramento dell’efficienza energetica complessiva.
Tecnologia di Compressione della Memoria
Le GPU NVIDIA utilizzano ormai da tempo diverse tecniche di compressione della memoria al fine di ridurre le esigenze di larghezza di banda grazie all’archiviazione in formato compresso, e senza perdita di qualità, dei dati di colore del frame buffer con possibilità, da parte del processore grafico, sia di lettura che di scrittura degli stessi. La riduzione della larghezza di banda garantita dalla compressione della memoria offre una serie di vantaggi, tra cui:
- Riduzione della quantità di dati scritti verso la memoria;
- Riduzione della quantità di dati trasferiti dalla memoria alla Cache L2 (un blocco di pixel compresso, infatti, produrrà un ingombro sulla memoria inferiore rispetto a un blocco non compresso);
- Riduzione del quantitativo di dati trasferiti tra differenti client (come ad esempio tra le Texture Unit ed il Frame Buffer).
La pipeline di compressione del processore grafico prevede diversi algoritmi pensati per determinare in maniera intelligente il modo più efficace per comprimere i dati. Tra questi, quello indubbiamente più significativo è rappresentato dalla tecnica di compressione del colore di tipo Delta (Delta Color Compression), ossia la capacità della GPU di analizzare le differenze tra il colore dei pixel presenti all’interno di un blocco, che verrà successivamente memorizzato come riferimento, ed i successivi blocchi che compongono il dato completo. In questa maniera anziché utilizzare un grosso quantitativo di spazio per registrare la mole di dati nella sua interezza, verrà immagazzinato esclusivamente l’insieme di pixel di riferimento con l’aggiunta dei valori differenti (per l’appunto “delta”) rilevati rispetto allo stesso. Di conseguenza, se il delta tra un blocco e l’altro è sufficientemente piccolo saranno necessari solamente pochi bit per identificare il colore dei singoli pixel, riducendo nettamente lo spazio necessario per la memorizzazione dei dati.
Con la nuova architettura sono stati ulteriormente migliorati i già ottimi ed avanzati algoritmi di compressione della memoria implementati nelle soluzioni della passata generazione, offrendo così un ulteriore incremento dell’ampiezza di banda effettiva e contribuendo a ridurre in maniera ancor più marcata la quantità di byte che il processore grafico deve recuperare dalla memoria per singolo frame. L’insieme di queste migliorie, in abbinamento all’impiego dei nuovi moduli di memorie GDDR6X operanti velocità mai viste prima, assicura un notevole aumento dell’ampiezza di banda effettiva, aspetto di fondamentale importanza per mantenere l’architettura bilanciata e sfruttare nel migliore dei modi la architettura delle unità SM.
Nuove unità RT Cores, Alpha Traversal e Displaced Micro-Mesh Engine
Il ray-tracing è una tecnologia di rendering estremamente impegnativa dal punto di vista computazionale, capace di simulare realisticamente l’illuminazione di una scena e dei suoi oggetti. In ambito professionale e cinematografico, seppur si faccia uso massiccio, ormai da diversi anni, di questa tecnica, sfruttando ad esempio gli strumenti Iray ed OptiX messi a disposizione da NVIDIA, non è mai stato possibile riprodurre tali effetti in alta qualità ed in tempo reale, specialmente affidandosi ad un singolo processore grafico.
Sempre a causa di questa sua natura intensiva in termini di elaborazione, questa tecnica non ha mai trovato impiego in ambito videoludico per attività di rendering significative. Come ben noto, infatti, i giochi che richiedono animazioni fluide ad elevati framerate si basano su ormai rodate tecniche di rasterizzazione, in quanto meno impegnative da gestire. Seppur scene rasterizzate possono vantare tutto sommato un bell’aspetto, non mancano purtroppo limitazioni significative che ne compromettono il realismo.
Ad esempio, il rendering di riflessi e ombre, utilizzando esclusivamente la rasterizzazione, necessita di semplificazioni di presupposti che possono causare diversi tipi di artefatti. Allo stesso modo, le scene statiche possono sembrare corrette fino a quando qualcosa non si muove, le ombre rasterizzate spesso soffrono di aliasing e fughe di luce e le riflessioni nello spazio possono riflettere solo gli oggetti visibili sullo schermo. Questi artefatti, oltre che compromettere il livello di realismo dell’esperienza di gioco, per essere in parte risolti obbligano gli sviluppatori a ricorrere ad effetti e filtri supplementari, con ovvio aumento delle richieste necessarie in termini di potenza elaborativa.
L’implementazione del ray-tracing in tempo reale su singola GPU è stata un’enorme sfida tecnica, che ha richiesto a NVIDIA quasi dieci anni di ricerca, progettazione e stretta collaborazione con i suoi migliori ingegneri in campo software. Tutti questi sforzi hanno portato alla messa a punto della tecnologia software NVIDIA RTX e di unità hardware specifiche espressamente dedicate al ray-tracing, denominate RT Cores e implementate per la prima volta nel 2018, in occasione del debutto di processori grafici basati su architettura Turing.
L’approccio scelto da NVIDIA appare del tutto intelligente, prevedendo una combinazione ibrida tra le due sopracitate tecniche di rendering. In questa maniera la rasterizzazione continuerà ad essere utilizzata laddove è più efficace, allo stesso tempo il ray-tracing verrà previsto esclusivamente negli ambiti nei quali è in grado di assicurare il maggior vantaggio visivo, come nel rendering dei riflessi, delle rifrazioni e delle ombre. A detta del colosso americano questo approccio rappresenta ad oggi il miglior compromesso possibile tra qualità e realismo grafico e onere computazionale. Nell’immagine che segue viene illustrato, in modo schematico, il funzionamento della nuova pipeline di rendering ibrida:
Anche se questi moderni processori grafici consentono un ray-tracing in tempo reale, il numero di raggi primari o secondari espressi per pixel o superficie varia in base a numerosi fattori, tra cui la complessità della scena, la risoluzione, gli ulteriori effetti grafici renderizzati nella scena stessa e, naturalmente, la potenza elaborativa del processore grafico. Non dobbiamo di conseguenza aspettarci che centinaia di raggi debbano o possano essere rappresentati in tempo reale. Sono, infatti, necessari molti meno raggi per pixel quando si utilizza l’accelerazione tramite RT Cores in combinazione con tecniche di filtraggio di riduzione del rumore avanzate. NVIDIA ha quindi messo a punto degli specifici moduli denominati Denoiser-Tracing, capaci di sfruttare appositi algoritmi basati sull’intelligenza artificiale allo scopo di ridurre in modo significativo il quantitativo di raggi per pixel richiesti pur senza compromettere in maniera marcata la qualità dell’immagine. Un esempio pratico di questo interessante approccio è stato mostrato nella demo Reflections creata dalla Epic Games in collaborazione con ILMxLAB e NVIDIA.
L’implementazione del ray-tracing in tempo reale nel motore grafico Unreal Engine 4 sfrutta le API Microsoft DXR e la tecnologia NVIDIA RTX per portare su schermo illuminazioni, riflessioni, ombre e occlusione ambientale di qualità cinematografica, il tutto eseguito su una singola GPU Quadro RTX 6000 o GeForce RTX 2080 Ti.
Con la nuovissima architettura Ada Lovelace debutta anche la terza generazione di unità RT Cores, unità rese ancor più prestanti ed efficienti rispetto al passato. NVIDIA stima una gestione delle intersezioni raggi-triangoli a velocità doppia rispetto alla scorsa generazione. Le nuove unità RT Cores, inoltre, confermano il pieno supporto verso le tecnologie di ray-tracing NVIDIA RTX e OptiX, le API Microsoft DXR e le più recenti API Vulkan Ray-Tracing, e possono accelerare le tecniche utilizzate in molte delle seguenti operazioni di rendering e non-rendering:
- Riflessioni e Rifrazioni;
- Ombre e Occlusione ambientale;
- Illuminazione Globale;
- Baking istantanea e offline della lightmap;
- Immagini e anteprime in alta qualità;
- Raggi primari nel rendering VR;
- Occlusion Culling;
- Fisica, rilevamento delle collisioni e simulazioni di particelle;
- Simulazioni audio (ad esempio tramite NVIDIA VRWorks Audio basata sull’API OptiX);
- Intelligenza artificiale;
- In-engine Path Tracing (non in tempo reale) per generare immagini di riferimento per la messa a punto di tecniche di rendering in tempo reale di eliminazione del rumore, composizione del materiale e illuminazione della scena.
Questa nuova generazione di unità vanta la capacità di compiere due volte più velocemente operazioni di Alpha Traversal, il tutto grazie all’implementazione di un nuovo motore, denominato Opacity Micromap Engine, espressamente dedicato alla geometria alpha-tested al fine di ridurre in maniera considerevole i calcoli a carico degli shader.
Nello specifico, il nuovo motore si occuperà di valutare la maschera di opacità, ovvero una mesh virtuale di micro-triangoli, utilizzando un sistema di coordinate baricentriche allo scopo di definire lo stato di opacità del micro-triangolo corrispondente in modo tale da risolvere direttamente le intersezioni dei raggi con triangoli non opachi. Lo stato di opacità può essere opaco, trasparente o sconosciuto. Se opaco, verrà registrato e restituito direttamente. Se trasparente verrà semplicemente ignorato, proseguendo con la ricerca di una nuova intersezione. Se sconosciuto, il controllo verrà restituito all’SM, invocando uno shader (“anyhit”) per risolvere a livello di codice l’intersezione.
Anche i nuovi RT Cores sono in grado di gestire in hardware la cosiddetta Bounding Volume Hierarchy (BVH), un particolare algoritmo di scomposizione gerarchica delle superfici tridimensionali che fino ad Ampere richiedeva un’emulazione di tipo software per essere eseguita. Nello specifico l’obiettivo è quello di individuare tutti quei triangoli che incrociano effettivamente uno dei raggi di luce presenti nella scena. Le unità hardware lavorano insieme ad avanzati filtri di denoising all’interno dell’efficiente struttura di accelerazione della BVH sviluppata dagli ingegneri NVIDIA al fine di ridurre drasticamente la mole di lavoro a carico delle SM, consentendo a queste ultime di dedicarsi ad altre tipologie di operazioni, quali l’ombreggiatura dei pixel e dei vertici e quant’altro.
Rispetto alla precedente generazione è stato implementato un nuovo motore, denominato Displaced Micro-Mesh Engine, capace di assicurare una velocità fino a dieci volte superiore, unitamente a un utilizzo di spazio inferiore anche di ben venti volte.
Il principale scopo del colosso statunitense è quello di risolvere uno dei principali problemi derivati dall’aumento, di generazione in generazione, della complessità geometrica. Nonostante le prestazioni in Ray Tracing siano in grado di scalare molto bene all’aumentare della complessità geometrica (l’azienda stima che un aumento di 100 volte della complessità potrebbe infatti comportare solamente un raddoppio dei tempi di tracciamento), la creazione della struttura dati (BVH), che lo rende possibile, al contrario comporta un “costo” sostanzialmente lineare in termini di tempo e memoria necessaria. In altre parole un aumento di 100 volte della complessità geometrica potrebbe comportare 100 volte più tempo e 100 volte più memoria.
Le Displaced Micro-Meshes (DMM) dei nuovi RT Cores aiutano sotto questo profilo. Citiamo le parole di NVIDIA: “Abbiamo sviluppato le displaced micro-mesh di Ada come una rappresentazione strutturata della geometria che sfrutta la coerenza spaziale per la compressione e la sua struttura per un rendering efficiente con un livello di dettaglio intrinseco e deformazioni/animazioni leggere”.
“Durante il ray-tracing utilizziamo la struttura displaced micro-mesh per evitare un grande aumento dei costi di costruzione BVH (tempo e spazio) preservando un attraversamento BVH efficiente. Durante la rasterizzazione utilizziamo il LOD micro-mesh intrinseco per rasterizzare primitive di dimensioni corrette con Mesh Shader o Compute Shader”.
DMM è una nuova primitiva geometrica che è stata co-progettata con il Micro-Mesh Engine nell’RT core di terza generazione. Ogni micro-mesh è definita da un triangolo base e da una displacement map. Il Micro-Mesh Engine genera all’occorrenza micro-triangoli al fine di risolvere le intersezioni di raggi micro-mesh fino al singolo micro-triangolo. L’RT Cores di Ada processa nativamente questa primitiva, risparmiando spazio e calcoli rispetto a quanto è normalmente richiesto nella descrizione delle geometrie complesse usando solo triangoli base.
Tutti queste novità previste nei nuovi RT Cores di terza generazione migliorano le prestazioni di calcolo senza incrementare il tempo o il consumo di memoria.
Supporto Shader Execution Reordering (SER)
NVIDIA è consapevole che la sola potenza bruta delle unità RT Core specializzate, seppur particolarmente elevata, non è sufficiente a garantire alti frame rate con contenuti di nuova generazione, poiché i carichi di lavoro ray tracing possono essere rallentati da una serie di fattori. In particolare, l’azienda fa riferimento agli shader RT divergenti quale principale freno alle massime prestazioni, in quanto non consentono alla GPU di lavorare in maniera uniforme (ad esempio quando si eseguono algoritmi di path tracing multi-bounce o quando si valutano materiali complessi).
La divergenza può assumere fondamentalmente due forme: divergenza di esecuzione, in cui thread diversi eseguono percorsi di codice diversi all’interno di uno shader; e divergenza di dati, in cui i thread accedono a risorse di memoria difficili da unire o memorizzare nella cache. Entrambe queste tipologie di divergenza rappresentano la normalità in ambito ray tracing, comportando uno spreco di risorse tale da lasciare purtroppo inespressa buona parte delle potenzialità della GPU.
Per questo motivo nei nuovi processori grafici è stata implementata una nuova tecnologia, denominata Shader Execution Reordering (SER), espressamente progettata per migliorare l’efficienza dell’esecuzione degli shader RT affrontando il problema della divergenza. Anni di ricerca e sviluppo sono stati investiti in questa tecnologia allo scopo di massimizzarne l’efficacia.
L’architettura Ada Lovelace è stata progettata pensando al SER ed include, di conseguenza, specifiche ottimizzazioni sia a livello di Streaming Multiprocessor (SM) che del sottosistema di memoria, mirate ad assicurare un efficiente riordino dei thread. SER è completamente controllato dall’applicazione tramite una piccola API, consentendo agli sviluppatori di applicare facilmente il riordino dove il loro carico di lavoro ne trae maggior vantaggio. L’API introduce inoltre una nuova flessibilità per quanto riguarda l’invocazione di shader di ray tracing al modello di programmazione, consentendo modi più semplificati per strutturare le implementazioni del renderer sfruttando al contempo il riordino.
Il diagramma sopra riportato mostra un semplice esempio di ray tracing. A partire dall’angolo in alto a sinistra, un certo numero di thread GPU sta sparando raggi primari in una scena. Si può presumere che i raggi primari che colpiscono gli stessi oggetti eseguano lo stesso programma shader su ciascuno dei thread e che siano ben ordinati, quindi lo shading-hit primario sarà contraddistinto da un’elevata efficienza di esecuzione e località dei dati. I raggi secondari, al contrario, vengono generati in corrispondenza di ciascun punto colpito dal raggio primario nella scena centrale. Partendo dalle superfici colpite primarie, sparano in direzioni diverse, colpendo oggetti diversi.
Di conseguenza lo shading-hit secondario tenderà ad essere meno ordinato e meno efficiente durante l’esecuzione sulla GPU, perché diversi programmi shader sono in esecuzione sui diversi thread e spesso devono serializzare l’esecuzione. Esempi di raggi secondari che possono beneficiare di SER includono quelli utilizzati per path tracing, i riflessi, l’illuminazione indiretta e gli effetti di traslucenza.
La tecnologia Shader Execution Reordering (SER) di fatto aggiunge un nuovo stadio nella pipeline di ray tracing, che riordina e raggruppa gli shader-hit secondari per avere una migliore efficienza generale. A detta di NVIDIA, il buon uso della tecnologia SER può fornire un miglioramento delle prestazioni fino a 2 volte per gli shader RT nei casi con un alto livello di divergenza (come il path tracing). Durante i test interni con Cyberpunk 2077 con Ray Tracing attivo al massimo livello, è stato registrato un aumento delle prestazioni complessive pari al 44%.
[nextpage title=”NVIDIA Ada Lovelace: Deep Learning Super-Sampling (DLSS) di terza generazione”]
La tecnologia Deep Learning Super-Sampling (DLSS) di NVIDIA ha aperto la strada al concetto di grafica neurale basata sull’intelligenza artificiale. Ad oggi viene sfruttata in 216 titoli e l’elenco è in continua crescita. Con le ultime soluzioni grafiche basate su architettura Ada Lovelace debutta anche la terza generazione del DLSS, il cui supporto è indicato come esclusivo; ciò significa che tutte le GPU precedenti alla serie RTX 40 continueranno a fare uso del DLSS di prima e seconda generazione.
Anche la nuova tecnologia DLSS 3 si basa sull’AI Super Resolution, che esegue il rendering interno utilizzando pixel a risoluzione inferiore e utilizza algoritmi l’intelligenza artificiale per produrre immagini a risoluzione più elevata e nitide al fine di migliorare notevolmente le prestazioni rispetto al tradizionale rendering grafico basato sulla rasterizzazione, ma presenta delle interessanti novità.
Negli ultimi quattro anni, la divisione Applied Deep Learning Research di NVIDIA ha sviluppato una particolare tecnica di generazione dell’immagine, denominata per l’appunto AI Frame Generation, che combina la stima del flusso ottico (Optical Flow) con il DLSS allo scopo di migliorare l’esperienza di gioco.
In altre parole l’ultima revisione del Deep Learning Super-Sampling sfrutta l’intelligenza artificiale per generare fotogrammi e inserirli con accuratezza tra i frame renderizzati, migliorando il frame rate e offrendo un’esperienza di gioco più fluida.
La stima del flusso ottico è comunemente utilizzata nelle applicazioni di visual-computing per misurare la direzione e l’ampiezza del movimento apparente dei pixel tra immagini grafiche renderizzate consecutivamente oppure tra frame video. Il flusso ottico è genericamente simile alla componente di stima del movimento della codifica video, ma con requisiti molto più impegnativi in termini di accuratezza e coerenza. Di conseguenza, vengono utilizzati diversi algoritmi.
A partire dall’architettura Ampere, i processori grafici NVIDIA implementano un motore dedicato denominato Optical Flow Accelerator (OFA) che utilizza algoritmi all’avanguardia per garantire risultati di alta qualità. L’unità OFA di ultima generazione presente in Ada Lovelace assicura una potenza di calcolo pari a ben 300 TeraOPS (TOPS) di operazioni OF, vale a dire oltre due volte più veloce rispetto all’implementazione di Ampere, ed è in grado di fornire fondamentali informazioni alla rete DLSS 3.
I nuovi algoritmi di analisi del vettore di movimento sono componenti fondamentali che consentono una capacità di generazione di frame accurata e performante all’interno del nuovo framework tecnologico DLSS 3. Il potenziato Optical Flow Accelerator (OFA) calcola il flusso di movimento di ogni pixel in un determinato fotogramma. Questi dati vengono combinati con i tradizionali vettori di movimento già comunemente utilizzati nei giochi e immessi nella rete AI, che quindi genera interi fotogrammi anziché singoli pixel. Questa combinazione tra AI Super Resolution e AI Frame Generation incorpora anche la tecnologia NVIDIA Reflex per garantire la latenza più bassa possibile per i giocatori grazie ad una pipeline grafica ottimizza.
Normalmente, nella pipeline grafica, al fine di evitare stalli ed assicurare che la GPU lavori al massimo è previsto l’invio preventivo delle varie draw call da parte della CPU, creando una “coda di rendering”, ovvero una serie di ordini che verranno evasi man mano dal processore grafico secondo una pianificazione ben precisa, aumentando di conseguenza la latenza. NVIDIA, con la tecnologia proprietaria Reflex va di fatto a rimuovere questa coda, prevedendo che le varie draw call vengano generate dalla CPU appena prima che la GPU ne abbia effettivamente bisogno. Questo va ridurre drasticamente la latenza generale, migliorando l’input lag e di conseguenza rendendo le sessioni di gioco più reattive e fluide.
Il risultato di tutte le novità che vi abbiamo elencato assicura un aumento delle prestazioni fino a due volte rispetto a DLSS 2, pur preservando la straordinaria qualità dell’immagine che ha decretato il successo di questa tecnica. Quando DLSS 3 è combinato con i nuovi RT Cores e altri miglioramenti dell’architettura Ada Lovelace può essere raggiunto un livello di performance fino a quattro volte superiore rispetto alle GPU precedenti.
DLSS 3 può anche migliorare le prestazioni nei casi in cui la CPU rappresenta un “collo di bottiglia”, impedendo quindi al processore grafico di esprimere al massimo il suo potenziale. L’ultimo capitolo dell’apprezzato Microsoft Flight Simulator è un esempio pratico di gioco fortemente “CPU Bound”, a causa della sua fisica e delle gigantesche distanze di visualizzazione. Ciò limita i vantaggi in termini di prestazioni che le tradizionali tecnologie di Super-Sampling possono offrire.
In questo caso, tuttavia, la capacità di DLSS 3 di generare frame è ugualmente in grado di assicurare un miglioramento delle prestazioni fino a due volte.
[nextpage title=”NVIDIA Ada Lovelace: Processore Grafico AD103″]
NVIDIA continua nella sua ormai consolidata tradizione di usare il nome di eminenti scienziati per le sue varie architetture grafiche, e in quest’occasione la scelta è ricaduta sulla matematica britannica Ada Lovelace, considerata come la prima programmatrice della storia e capace di gettare le basi della moderna informatica.
Le declinazioni pensate per il mercato consumer, identificate in questa generazione con i nomi in codice AD10x, riprendono fondamentalmente quella che è la classificazione tipicamente utilizzata dall’azienda statunitense. Il potente processore grafico AD103, di conseguenza, porta una ventata d’aria fresca nella fascia medio alta del mercato, raggiungendo nuovi livelli di performance ed efficienza.
Al momento è prevista esclusivamente una soluzione consumer ad essere equipaggiata con questa nuova GPU, vale a dire la nuovissima GeForce RTX 4080, presentata lo scorso mese di settembre. Questa proposta, come vedremo, prevede l’utilizzo di una variante leggermente depotenziata del chip completo, denominata AD103-300, nella quale solamente 76 delle 80 unità SM complessive risultano attive. Di conseguenza sarà possibile contare su 9.728 CUDA Cores, 304 Texture Mapping Unit (TMU), 304 Tensor Cores e 76 RT Cores.
Osserviamo quindi, nel dettaglio, la struttura interna del nuovo processore grafico di fascia alta AD103-300, utilizzato da NVIDIA sulla nuova soluzione top di gamma GeForce RTX 4080:
Come vediamo dal diagramma, il blocco principale è ancora una volta denominato GPC (Graphics Processing Cluster) ed include un Raster Engine (per la rimozione di tutti i triangoli non visibili dalla scena, al fine di ridurre la banda necessaria) e sei blocchi TPC (Thread/Texture Processing Clusters), ognuno formato da un PolyMorph Engine e da una coppia di unità Streaming Multiprocessor, comprendenti, come abbiamo osservato, la maggior parte delle unità fondamentali per l’esecuzione dei calcoli grafici.
Esternamente al blocco Graphics Processing Cluster (GPC), troviamo le unità ROPs (Raster Operator), suddivise in blocchi separati da 8 unità ciascuno, connessi a otto Memory Controller con interfaccia a 32 bit, ed in grado di accedere ad una porzione dei 65.636KB di memoria Cache L2 presenti. Ne consegue un bus di memoria aggregato pari a 256-bit ed un totale di 112 unità ROPs completamente sfruttabili.
Non manca, inoltre, un potente Giga Thread Engine, responsabile della suddivisione intelligente del carico di lavoro complessivo tra i blocchi GPC che compongono il processore grafico, ed un Optical Flow Accelerator, fondamentale per le migliori performance.
Nella tabella, riportata sopra, abbiamo riassunto le caratteristiche tecniche del nuovo processore grafico AD103 proposto da NVIDIA, posto a diretto confronto con le soluzioni GeForce RTX della passata generazione, basate su architettura Ampere e GPU GA102 nelle varie declinazioni di fascia medio alta previste.
[nextpage title=”NVIDIA Ada Lovelace: Display e Gestione dei Flussi Video”]
Con il passare degli anni la richiesta, da parte dei consumatori, di schermi a risoluzione sempre maggiore continua ad aumentare. I giocatori e gli appassionati desiderano pannelli con risoluzioni e frequenze di aggiornamento sempre più elevate, in modo da beneficiare di un maggior livello di definizione dell’immagine associato alla migliore fluidità possibile.
Con la nuova architettura Ada Lovelace viene sostanzialmente mantenuto il già ottimo Display Engine osservato con le precedenti soluzioni Ampere, ed espressamente pensato per soddisfare le nuove richieste e gestire nel migliore dei modi gli schermi di ultima generazione, contraddistinti da risoluzioni più elevate, frequenze di aggiornamento più veloci e supporto High Dynamic Range (HDR) avanzato.
Le nuove soluzioni grafiche Ada Lovelace implementano uscite video Display Port con certificazione 1.4a e pieno supporto VESA Display Stream Compression (DSC) 1.2a per la gestione di schermi a risoluzione 8K (7680 x 4320) con refresh di 60Hz e High Dynamic Range (HDR) oppure 4K (3840 x 2160) con refresh fino a ben 240Hz, sempre con HDR. Presente anche una connessione HDMI conforme al nuovo standard 2.1, capace di assicurare una bandwidth massima pari a ben 48Gbps, così da poter gestire senza alcun impedimento schermi con risoluzione 8K (7680 x 4320), refresh 60Hz e HDR con un singolo cavo. Anche in questo caso viene implementato il supporto High-bandwidth Digital Content Protection (HDCP) 2.3, oltre al VESA DSC 1.2a.
HDR e Gestione dei Flussi Video
Il Display Engine di Ada Lovelace riconferma il pieno supporto per l’elaborazione di contenuti High Dynamic Range (HDR) in modo nativo all’interno della pipeline, prevedendo, rispetto alla precedente generazione, anche un supporto hardware alla mappatura dei toni. Questa tecnica, utilizzata per approssimare l’aspetto di immagini HDR su schermi al contrario di tipo Standard Dynamic Range (SDR), richiedeva, nell’implementazione prevista nelle vecchie soluzioni Pascal, una mole di calcoli non indifferente, che inevitabilmente aggiungevano latenza. Supportata, inoltre, la formula di Tone Mapping definita dallo standard ITU-R Recommendation BT.2100, al fine di evitare il fenomeno del “color shift” su diversi display HDR.
Oltre a questo, diverse migliorie coinvolgono la componente hardware dedicata alla codifica e decodifica dei contenuti video. Le nuove GPU Ada Lovelace provviste di almeno 12GB di memoria video dedicata, ad esempio, vantano ora un doppio encoder NVENC di ottava generazione che fornisce codifica video basata su hardware completamente accelerata ed indipendente dalle prestazioni grafiche. Questo consente eccellenti performance per l’editing professionale, con possibilità di codifica video a risoluzione 8K/60 oppure di quattro flussi simultanei a risoluzione 4K/60.
La codifica video può essere un’attività complessa dal punto di vista computazionale e con la codifica dislocata su NVENC, il processore grafico e la CPU sono liberi per gestire altre operazioni. Rispetto alle soluzioni della passata generazione, inoltre, si evidenzia il pieno supporto alla codifica AV-1.
AV-1, anche noto come AOMedia Video 1, è un formato di codifica video aperto e privo di royalty sviluppato da AOM (Alliance for Open Media), progettato principalmente per trasmissioni video su Internet e capace di fornire una compressione e una qualità migliore rispetto ai codec esistenti come H.264, HEVC e VP9.
Per questo motivo viene adottato da molte delle principali piattaforme video e browser. Questo formato assicura generalmente un risparmio di velocità in bit del 50-55% rispetto ad H.264 ma, sebbene sia molto efficiente nel comprimere video, la decodifica è molto impegnativa dal punto di vista computazionale. I decoder di tipo software causano un elevato utilizzo della CPU e faticano a riprodurre risoluzioni elevate.
L’encoder AV-1 di Ada Lovelace è più efficiente del 40% rispetto all’encoder H.264 utilizzato nelle GPU GeForce RTX serie 30. AV-1 consentirà agli utenti che oggi eseguono lo streaming a 1080p di aumentare la risoluzione a 1440p, mantenendo lo stesso bitrate e la stessa qualità.
Nessun intervento particolare, al contrario, per quanto riguarda il decoder NVDEC, mantenuto alla sua quinta generazione e capace di offrire pieno supporto alla decodifica di numerosi codec video in ambiente Windows e Linux fino alla risoluzione 8K/60. Nello specifico viene assicurata l’accelerazione in hardware di MPEG-2, VC-1, H.264 (AVCHD), H.265 (HEVC), VP8, VP9 ed AV-1 ad 8/10 o 12-bit.
[nextpage title=”INNO3D GeForce RTX 4080 16GB iCHILL X3: Confezione e Bundle”]
La nuovissima INNO3D GeForce RTX 4080 16GB iCHILL X3 è giunta nella nostra redazione all’interno della confezione originale prevista dal produttore asiatico. La scatola, contraddistinta da dimensioni abbastanza generose, è realizzata con un cartoncino resistente e capace di assicurare l’integrità della scheda grafica, nonché della dotazione accessoria, anche nell’eventualità di un trasporto movimentato. La finitura superficiale è semi-lucida e vengono riportate numerose informazioni circa le principali caratteristiche del prodotto.
Sulla parte frontale domina una generosa immagine della scheda grafica, aspetto che ci permette di intuire fin da subito l’obiettivo da parte dell’azienda di enfatizzarne il design “futuristico” e del tutto particolare. In alto a sinistra troviamo il logo iCHILL, che ci permette di intuire fin da subito che la scheda grafica adotta un sistema di dissipazione del calore di tipo proprietario e, in questo specifico modello, contraddistinto dalla presenza di ben tre ventole di raffreddamento efficienti e silenziose (X3 Edition).
Spostandoci sulla parte destra troviamo l’indicazione circa il quantitativo e la tipologia di memoria grafica prevista, pari a ben 16GB di tipo GDDR6X, e l’ampiezza del bus di memoria, pari a 256-bit. Nella parte bassa, invece, è riportata la nomenclatura della scheda grafica, il tipo di GPU installata, basata sulla nuovissima architettura Ada Lovelace, e le principali caratteristiche di rilievo implementate, tra le quali citiamo la compatibilità con il software di gestione proprietario TuneIT (che osserveremo nel dettaglio in seguito) ed il pieno supporto alle tecnologie Reflex, DLSS e al Ray-Tracing in tempo reale, aspetto di spicco in ambito consumer.
Nella parte posteriore viene nuovamente riportata la nomenclatura del prodotto ed il marchio aziendale, nonché una panoramica di quelli che sono i punti di forza più significativi del nuovo processore grafico NVIDIA Ada Lovelace, tradotti nelle lingue dei vari paesi in cui il prodotto viene commercializzato, italiano compreso.
Nelle fasce laterali ritroviamo l’immancabile logo aziendale, la nomenclatura della scheda grafica e la tipologia di GPU installata. Sulla fascia sinistra trova posto una piccola etichetta adesiva riportante tutti i vari codici identificativi e seriali della scheda grafica.
Aprendo la confezione troviamo un’ulteriore scatola in cartone rigido di colore nero, davvero molto resistente e curata. Al suo interno trova posto la scheda grafica, adeguatamente protetta all’interno di un tradizionale sacchetto anti-statico e da una coppia di spallette realizzate in schiuma poliuretanica compatta, nonché tutto il materiale fornito in dotazione.
Il bundle fornito in dotazione è abbastanza completo e comprende tutto il necessario per sfruttare fin da subito la nuova scheda grafica. Troviamo, infatti:
- 1x Guida alla scelta dell’alimentatore più idoneo;
- 1x Manuale rapido di installazione;
- 1x Cavo RGB (3-pin) per la sincronizzazione con le principali tecnologie d’illuminazione del settore (ASUS AURA Sync, MSI MysticLight, GIGABYTE RGB Fusion);
- 1x Graphics Card Stand;
- 1x Adattatore alimentazione PCIe 12VHPWR to 3x PCIe 8-Pin.
Passiamo ora ad analizzare la scheda e le sue caratteristiche tecniche.
[nextpage title=”INN03D GeForce RTX 4080 16GB iCHILL X3: Caratteristiche Tecniche”]
La scheda video INNO3D GeForce RTX 4080 16GB iCHILL X3 è costruita attorno al nuovissimo processore grafico di fascia medio alta AD103-300 di NVIDIA, basato su architettura Ada Lovelace, e differisce dalla soluzione di riferimento sostanzialmente per quanto riguarda il particolare sistema di dissipazione del calore impiegato, di tipo proprietario a tripla ventola (da ben 98 millimetri di diametro) e triplo slot, contraddistinto da dimensioni imponenti e un aspetto estetico del tutto accattivante nonché, come vedremo in seguito, da eccellenti performance.
In questa specifica soluzione è implementato un sistema di illuminazione a LED di tipo RGB indirizzabile (A-RGB), pienamente compatibile con le principali tecnologie del settore, tra le quali citiamo ad esempio AURA Sync di ASUS, MysticLight di MSi ed RGB Fusion di GIGABYTE.
La soluzione in esame viene commercializzata con frequenze operative fedeli alle specifiche sancite da NVIDIA sia per quanto riguarda il base clock, fissato a 2.205MHz e sia per quanto concerne i nuovissimi moduli di memoria GDDR6X (ovviamente prodotti da Micron), fissati a ben 1.400MHz (22.4Gbps effettivi).
L’unica, seppur lieve, differenza è rappresentata dalla frequenza di boost clock, per la quale è stato previsto un aumento di 60MHz rispetto alle specifiche di riferimento, raggiungendo così quota 2.565MHz (anziché 2.505MHz), intervento che si ripercuoterà in maniera certamente positiva e del tutto proporzionale sulle pure prestazioni velocistiche della scheda.
Riportiamo di seguito un riassunto delle principali caratteristiche tecniche e funzionalità esclusive così come dichiarate dal produttore:
Il software GPU-Z, aggiornato all’ultima versione al momento disponibile (2.51.0), rileva correttamente le caratteristiche fisiche e le frequenze operative della scheda grafica e ne riportiamo uno screen.
Per ulteriori informazioni è possibile consultare la pagina web dedicata al prodotto sul sito INNO3D.
[nextpage title=”INNO3D GeForce RTX 4080 16GB iCHILL X3: Software in dotazione”]
Il produttore ha previsto, anche per la sua nuovissima soluzione grafica GeForce RTX 4080 16GB iCHILL X3, un interessante software proprietario che ci permetterà di gestire e configurare al meglio numerosi parametri avanzati.
Stiamo parlando dell’ottimo TuneIT OC Utility. Una volta installato ed eseguito notiamo fin da subito un’interfaccia senza dubbio molto intrigante, ma per la gioia degli utenti meno smaliziati, anche decisamente ordinata ed intuibile.
Ai lati sono presenti una serie di grafici che mostrano la frequenza e la percentuale di utilizzo del processore grafico e dei moduli di memoria in tempo reale. Poco più in alto, invece, la temperatura d’esercizio della GPU e la relativa percentuale utilizzo. La parte centrale della schermata del programma è dedicata al rilevamento e all’eventuale impostazione delle frequenze operative e di alcuni parametri avanzati utili in fase di overclocking, tra cui il Power Limit, il regime di rotazione delle ventole e la soglia critica di temperatura della GPU.
Non manca, infine, la possibilità di salvare i parametri immessi sotto forma di comodi profili (fino a massimo di quattro), in maniera da poterli velocemente ricaricare con un semplice click del mouse.
Poco più in basso è prevista una sorta di sezione “Information”, che ci permetterà di conoscere le principali specifiche tecniche della nostra scheda grafica, quali ad esempio il tipo di GPU ed il quantitativo di memoria di cui è dotata, la versione del BIOS presente) ed infine la versione dei driver grafici installati.
Premendo, invece, il pulsante “Setting” verrà mostrato un piccolo pannello in cui sarà possibile impostare alcune funzionalità avanzate del programma, tra cui l’avvio automatico all’accesso nel sistema operativo e la possibilità di applicare il profilo di overclock in automatico.
L’imponente dissipatore di calore messo a punto da INNO3D implementa un sistema di illuminazione a LED di tipo Addressable-RGB completamente personalizzabile. Purtroppo però l’attuale versione del programma non supporta appieno quest’ultima soluzione grafica di fascia alta e, nello specifico non consente per il momento di poter procedere con le varie personalizzazioni del colore e dell’effetto dell’illuminazione.
Ovviamente verrà rilasciata a breve una versione pienamente compatibile, nel frattempo è comunque assicurato il pieno supporto verso le principali tecnologie di illuminazione del settore, tra le quali citiamo l’AURA Sync di ASUSTek, il MysticLight di MSI e l’RGB Fusion di GIGABYTE.
Concludiamo con la funzionalità di overclocking automatico AI Scanner prevista dal programma. Sarà sufficiente premere il tasto dedicato, collocato nella parte alta della schermata principale per avviare la procedura di ricerca della frequenza stabile ottimale del proprio processore grafico, procedura che come indicato dal programma stesso richiederà dai cinque ai dieci minuti per essere portata a termine.
[nextpage title=”INNO3D GeForce RTX 4080 16GB iCHILL X3: La scheda”]
La nuova INNO3D GeForce RTX 4090 24GB X3-OC si presenta con un aspetto certamente molto particolare, dettato dall’imponente dissipatore proprietario che gli conferisce un tono aggressivo e accattivante che lascia subito presagire l’intento del produttore di creare un oggetto dedicato ad una platea di giocatori che amano unire l’estetica a prestazioni velocistiche di assoluto livello.
La prima cosa che colpisce nel toccare con mano questo prodotto è certamente la robustezza e la grande cura nei particolari. Le dimensioni sono indubbiamente generose, pari a 33.4cm di lunghezza per un ingombro di ben 3 slot in altezza.
Posteriormente troviamo un appariscente backplate in alluminio di colore nero, pensato non soltanto per fini puramente estetici, ma anche e soprattutto per assicurare una maggiore protezione dei componenti, conferire maggiore rigidità alla scheda e dissipare, seppur passivamente, parte del calore generato dal processore grafico, dal comparto di memoria e dalla circuiteria di alimentazione.
Non manca una connessione PCIe compatibile con il recente standard 4.0 che si attiverà installando la scheda su sistemi in grado di fornire tale supporto. Ne consegue che, almeno per il momento, tale supporto sia garantito esclusivamente dalle più recenti piattaforme Intel di classe mainstream (PCH Serie 400/500 e 600/700 in abbinamento a microprocessori di undicesima, dodicesima e tredicesima generazione “Rocket Lake”, “Alder Lake” e “Raptor Lake”) ed AMD di classe mainstream ed High-End Desktop (HEDT), in abbinamento ai relativi microprocessori Ryzen e Ryzen Threadripper.
In considerazione delle generose dimensioni e soprattutto del peso complessivo della scheda, che sfiora i due chilogrammi, è stato opportunamente previsto, all’interno della dotazione accessoria, un particolare supporto verticale in metallo, denominato “Graphics Card Stand”, espressamente pensato per ridurre in maniera considerevole il peso a carico dello slot PCI-Express della scheda madre, ed evitarne così il potenziale danneggiamento con il passare del tempo.
Grazie alla nuovissima architettura “Ada Lovelace”, sviluppata utilizzando l’avanzato processo produttivo a 5 nanometri custom NVIDIA (4N) della taiwanese TSMC, sono stati definiti nuovi valori di riferimento per quanto riguarda l’efficienza energetica, consentendo TDP particolarmente contenuti in relazione alle performance velocistiche espresse. La soluzione messa a punto da INNO3D si mantiene fedele a quelle che sono le specifiche di riferimento di NVIDIA per le nuovissime proposte GeForce RTX 4080, prevedendo un singolo connettore 12+4-Pin conforme alle specifiche PCI-Express Gen 5.0 (connettore noto anche come 12VHPWR).
In occasione del debutto della line-up Ampere avevamo già visto un connettore simile sulle soluzioni Founders Edition e sostanzialmente a livello “elettrico” la soluzione implementata allora da NVIDIA e quella resa ufficiale quale standard appare sostanzialmente identica, fatta eccezione per la mancanza degli ulteriori 4-Pin laterali, che tuttavia, da specifiche, non sono coinvolti nella fornitura di energia alla scheda grafica, che si assesta su di un massimo di 320W. In dotazione viene fornito un cavo adattatore “12VHPWR to 3×8-Pin”, più che sufficienti a soddisfare le richieste energetiche della scheda grafica e consentire anche un ulteriore e discreto margine di manovra in overclocking.
Sempre nella fascia laterale è presente un particolare pannello provvisto di retroilluminazione a LED di tipo RGB personalizzabile, che si attiverà automaticamente una volta avviato il computer. Indubbiamente un tocco di classe in più che rende questa soluzione ancor più accattivante e gradevole a vedersi, soprattutto all’interno degli ormai diffusi chassis provvisti di paratia laterale finestrata.
Il sistema di illuminazione implementato sulla scheda è inoltre pienamente compatibile con le più diffuse tecnologie RGB proprietarie presenti ad oggi sul mercato, tra le quali non possiamo non citare la collaudata AURA Sync di ASUSTek, l’ottima Polychrome RGB di ASRock, e le sempre più diffuse RGB Fusion di GIGABYTE e MysticLight di MSI.
Anche le nuove soluzioni grafiche Ada Lovelace implementano uscite video Display Port con certificazione 1.4a e pieno supporto VESA Display Stream Compression (DSC) 1.2a per la gestione di schermi a risoluzione 8K (7680 x 4320) con refresh di 60Hz e High Dynamic Range (HDR) oppure 4K (3840 x 2160) con refresh fino a ben 240Hz, sempre con HDR. Presente anche una connessione HDMI conforme al nuovo standard 2.1, capace di assicurare una bandwidth massima pari a ben 48Gbps, così da poter gestire senza alcun impedimento schermi con risoluzione 8K (7680 x 4320), refresh 60Hz e HDR con un singolo cavo. Anche in questo caso viene implementato il supporto High-bandwidth Digital Content Protection (HDCP) 2.3, oltre al VESA DSC 1.2a.
Come da nostra abitudine, ormai consolidata, non abbiamo resistito alla curiosità di smontare la scheda video per meglio osservare l’interno della GeForce RTX 4080 16GB iCHILL X3. La rimozione dell’imponente sistema di dissipazione del calore proprietario utilizzato, seppur non risulti particolarmente complicata, necessita sicuramente di un po’ più di tempo rispetto alle soluzioni più tradizionali. È opportuno avvisare, inoltre, che tale operazione comporta la perdita della garanzia del prodotto, anche se non si evidenzia la presenza di particolari sigilli adesivi su alcuna vite di fissaggio. Per prima cosa è necessario rimuovere il generoso blocco principale, dedicato allo smaltimento del calore generato dal complesso processore grafico di fascia alta AD103-300. Per farlo è sufficiente svitare alcune viti di fissaggio poste nel retro e nella fascia anteriore e posteriore della scheda grafica.
Successivamente, per riuscire a separare completamente il blocco dissipante dalla scheda grafica, è necessario scollegare i cavi di alimentazione delle ventole e dei LED presenti. A questo punto il grosso del “lavoro” è praticamente fatto e possiamo cominciare ad intravvedere cosa si cela al di sotto del possente “iCHILL X3 Edition”.
Il blocco dissipante principale appare certamente imponente nelle dimensioni, oltre che indubbiamente molto curato e prevede una serie di otto heatpipes in rame nichelato dal buon diametro, in grado di trasportare efficientemente e uniformemente il calore generato dal processore grafico sull’ampia superficie a disposizione (il produttore stima all’incirca 1.000.000 di mm2).
Appare innegabile come il produttore asiatico abbia curato fin nei minimi particolari la dissipazione del calore della propria soluzione grafica, prevedendo pad termo-conduttivi di buona qualità, posti a diretto contatto sia con i moduli di memoria che con le componenti “calde” della circuiteria di alimentazione.
Lo smaltimento del calore è, infine, assicurato dall’impiego di ben tre ventole da ben 98 mm di diametro e nove pale, capaci di ottime prestazioni e buona silenziosità, grazie al supporto verso la tecnologia Intelligent FAN Stop 0dB, che provvederà ad interromperne completamente la rotazione nel momento in cui la GPU non viene sfruttata (Idle Mode) e la sua temperatura di esercizio non raggiunge la soglia prefissata (<40°C). Al fine di ridurre ulteriormente la turbolenza durante il funzionamento è stata prevista, per la coppia di ventole più esterne, una rotazione in senso anti-orario.
La rimozione dell’intero sistema di dissipazione ci offre l’opportunità di poter osservare con più attenzione il PCB della scheda grafica che, come anticipato, si mantiene fedele a quello che è il design di riferimento previsto da NVIDIA per le soluzioni basate su GPU GeForce RTX 4080, differendo essenzialmente per quanto riguarda la componentistica discreta impiegata.
Il primo particolare che cattura la nostra attenzione è la pulizia del circuito stampato, che risulta davvero ben organizzato, anche grazie alle dimensioni indubbiamente generose. È innegabile che INNO3D, sotto questo punto di vista, ha svolto un lavoro veramente impeccabile. In posizione pressappoco centrale trova posto il nuovo processore grafico di fascia medio alta AD103-300-A1, sviluppato con tecnologia produttiva ad 5 nanometri custom NVIDIA (4N) dalla taiwanese TSMC e contraddistinto da ben 45.9 Miliardi di Transistor integrati in una superficie del Die di 379 mm2. Ne consegue una densità estremamente elevata, pari a ben 121 Milioni di Transistor per mm2.
Tutti attorno sono collocati gli otto moduli di memoria GDDR6X a disposizione, da 2.048MB ciascuno, per un totale complessivo di ben 16.384MB di memoria grafica dedicata. I moduli utilizzati, nello specifico dei MT61K512M32KPA-24:U, sono come intuibile prodotti da Micron, riportano la serigrafia “2PU47 D8BZF” e sono accreditati per una frequenza operativa pari a ben 1.400MHz (22.4Gbps effettivi), ovvero la medesima prevista da NVIDIA per le soluzioni GeForce RTX 4090 di riferimento dedicate al mercato consumer. Tale frequenza, in abbinamento al bus da 256-bit, assicura una banda passante a completa disposizione del processore grafico veramente elevatissima, pari a ben 716.8 GB/s.
Il produttore asiatico ha previsto per questa sua nuova soluzione grafica una circuiteria di alimentazione sufficientemente robusta e di qualità. Nello specifico notiamo un design da 14+3 fasi di alimentazione complessive, le prime dedicate al prestante processore grafico, mentre le restanti al comparto di memoria. Questo garantirà una buona efficienza e stabilità in considerazione della richiesta energetica necessaria alla corretta alimentazione del complesso processore grafico AD103.
La qualità delle componenti discrete è più che buona e perfettamente in grado non soltanto di soddisfare le richieste energetiche previste ai valori di targa, ma anche di garantire un buon margine in overclock. Ogni singola fase, infatti, prevede induttori ben dimensionati, precisamente sono stati scelti degli R22 da 220mH sia per il circuito dedicato al processore grafico e sia per il comparto di memoria.
A questi sono affiancati ottimi moduli AOZ5311NQI-BLN0, in grado di supportare sino a 55A, prodotti da Alpha & Omega Semiconductor e provvisti di MOSFET Low-Side & High-Side e driver IC integrati in un singolo package e capaci di assicurare un più elevato livello affidabilità, precisione ed efficienza rispetto alle precedenti implementazioni Dr.MOS.
La gestione del circuito GPU è affidata ad una coppia di rodati controller prodotti dalla uPI Semiconductor, capaci di offrire supporto alla regolazione della tensione tramite software. Nello specifico è stato scelto il modello configurabile ad 8 canali di ultima generazione uP9512, specificatamente progettato per fornire una tensione in uscita ad alta precisione ed in grado di supportare la tecnologia Open Voltage Regulator Type 4i+ PWMVID di NVIDIA.
Per quanto riguarda, invece, la gestione del circuito dedicato al comparto di memoria GDDR6X è previsto il modello a 4 canali uS5650Q, sempre prodotto dall’azienda taiwanese. Tutti i controller sono collocati nel lato posteriore del PCB.
A questo punto è giunto il momento di testare le potenzialità offerte dalla nuova INNO3D GeForce RTX 4080 16GB iCHILL X3.
[nextpage title=”Sistema di Prova e Metodologia di Test”]
Per il sistema di prova ci siamo avvalsi di una scheda madre dotata del recente chipset AMD X670E, prodotta da BIOSTAR. In particolare è stato scelto il modello X670E Valkyrie, opportunamente aggiornato con l’ultimo BIOS ufficiale rilasciato (A06).
Come processore è stato scelto il modello di punta AMD appartenente alla recente famiglia Raphael, precisamente il Ryzen 9 7950X 16C/32T, mantenuto entro le specifiche del produttore e con tecnologia Precision Boost Overdrive attivata.
Per il comparto memorie la scelta è ricaduta su un kit DDR5 a bassa latenza prodotto da G.Skill da 32GB di capacità assoluta e pieno supporto Dual-Channel, nello specifico il modello Trident Z5 Neo RGB F5-6000J3038F16GX2-TZ5NR. Sia la frequenza e sia le latenze sono state mantenute entro le specifiche del produttore, limitandosi ad abilitare unicamente il profilo EXPO (EXtended Profiles for Overclocking) espressamente dedicato alla recente piattaforma mainstream di AMD.
Nella tabella che segue vi mostriamo il sistema di prova utilizzato per i test di questa nuova scheda grafica:
Il sistema operativo, Microsoft Windows 11 Pro X64, è da intendersi privo di qualsiasi ottimizzazione particolare, ma comprensivo di tutti gli aggiornamenti rilasciati fino al giorno della stesura di questo articolo (Versione 22H2 – build 22261.819).
Le nostre prove sono state condotte con l’intento di verificare il livello prestazionale della nuovissima INNO3D GeForce RTX 4080 16GB iCHILL X3, ponendola non soltanto a diretto confronto con diverse soluzioni grafiche precedentemente testate in condizioni operative similari, ma soprattutto con la soluzione di riferimento basata su processore grafico GA102, ovvero con l’ottima INNO3D GeForce RTX 3080 Ti iCHILL X4.
Per meglio osservare le potenzialità offerte dalla nuova scheda grafica di INNO3D abbiamo condotto le nostre prove basandoci su due differenti livelli d’impostazione, preventivamente testati al fine di non incorrere in problemi causati dall’instabilità:
- Default: INNO3D GeForce RTX 4080 16GB iCHILL X3 / Frequenze GPU/Boost/Memorie pari a 2.205MHz/2.565MHz/1.400MHz (22.4Gbps effettivi) / Power Limit 100% (320W) / Gestione Ventole Automatica;
- OC-Daily: INNO3D GeForce RTX 4080 16GB iCHILL X3 / Frequenze GPU/Boost/Memorie pari a 2.305MHz/2.665MHz/1.500MHz (24.0Gbps effettivi) / Power Limit 100% (320W) / Gestione Ventole Automatica.
Tutti i settaggi sono stati effettuati con l’ultima versione disponibile del software proprietario TuneIT di INNO3D. I driver utilizzati, come possiamo osservare dagli screen sopra riportati, sono gli ultimi NVIDIA Game Ready 526.98, provvisti di certificazione WHQL.
Queste le applicazioni interessate, suddivise in due tipologie differenti:
Benchmark Sintetici
- DX11: 3DMark 11 Advanced Edition v1.0.179;
- DX11-DX12-DXR: 3DMark Advanced Edition v2.25.8049;
- DX11: Unigine Heaven Benchmark v4.0;
- DX11: Unigine2 Superposition Benchmark v1.1;
- VR: VRMark Advanced Edition v1.3.2020;
- GPGPU: V-Ray Benchmark 1.0.8 64bit;
- GPGPU: V-Ray Benchmark 5.02.01 64bit;
- GPGPU: Indigo Benchmark 4.0.64 64bit;
- GPGPU: Blender Benchmark 3.3.0 64bit.
Giochi
- DX12: Assassin’s Creed Valhalla;
- DX12: Cyberpunk 2077;
- DX12: DiRT 5;
- DX12: F1 2022;
- DX12: Far Cry 6;
- DX12: Forza Horizon 5;
- DX12: Gears 5;
- DX12: Hitman 3;
- DX12: Horizon Zero Dawn;
- DX12: Metro Exodus;
- DX12: Shadow of the Tomb Raider;
- DX12: Watch Dogs: Legion;
- Vulkan: Red Dead Redemption 2;
- Vulkan: Wolfenstein YoungBlood;
- DX11: The Witcher 3 Wild Hunt.
Andiamo ad osservare i risultati ottenuti.
[nextpage title=”DX11: 3DMark 11 Advanced”]
La penultima versione del famoso software richiederà obbligatoriamente la presenza nel sistema sia di una scheda video con supporto alle API DirectX 11. Secondo Futuremark, i test sulla tessellation, l’illuminazione volumetrica e altri effetti usati nei giochi moderni rendono il benchmark moderno e indicativo sulle prestazioni “reali” delle schede video.
La versione Basic Edition (gratuita) permette di fare tutti i test con l’impostazione “Performance Preset”. La versione Basic consente di pubblicare online un solo risultato. Non è possibile modificare la risoluzione e altri parametri del benchmark. 3DMark 11 Advanced Edition non ha invece alcun tipo di limitazione.
Il benchmark si compone di sei test, i primi quattro con il compito di analizzare le performance del comparto grafico, con vari livelli di tessellazione e illuminazione. Il quinto test non sfrutta la tecnologia NVIDIA PhysX, bensì la potenza di elaborazione del processore centrale. Il sesto e ultimo test consiste, invece, in una scena precalcolata in cui viene sfruttata sia la CPU, per i calcoli fisici, e sia il processore grafico.
I test sono stati eseguiti in DirectX 11 sfruttando i preset Entry, Performance ed Extreme. Nei grafici il punteggio complessivo ottenuto.
[nextpage title=”DX11-DX12-DXR: 3DMark Advanced “]
La nuova versione del famoso software è senza dubbio la più potente e flessibile mai sviluppata da Futuremark (attualmente UL Benchmarks). Per la prima volta viene proposto un programma multipiattaforma, capace di eseguire analisi comparative su sistemi operativi Windows, Windows RT, Android e iOS. Le prestazioni velocistiche del proprio sistema possono essere osservate sfruttando nuovi ed inediti Preset: Ice Storm, Cloud Gate, Sky Diver, Fire Strike, Time Spy, Port Royal e Speed Way.
Il primo, Ice Storm, sfrutta le funzionalità delle librerie DirectX 9.0 ed è sviluppato appositamente per dispositivi mobile, quali Tablet e Smartphone senza comunque trascurare i computer di fascia bassa. Il secondo, Cloud Gate è pensato per l’utilizzo con sistemi più prestanti, come ad esempio notebook e computer di fascia media, grazie al supporto DirectX 10.
Il terzo, Sky Diver, fa da complemento offrendo un punto di riferimento ideale per laptop da gioco e PC di fascia medio-alta con supporto DirectX 11. Infine gli ultimi preset, denominati Fire Strike, Time Spy, Port Royal e Speed Way, sono pensati per l’analisi dei moderni sistemi di fascia alta, contraddistinti da processori di ultima generazione e comparti grafici di assoluto livello con pieno supporto DirectX 11 (Fire Strike), DirectX 12 (Time Spy) e DirectX 12 & DirectX Raytracing (Port Royal e Speed Way).
I nostri test sono stati eseguiti sfruttando i preset Fire Strike (Normal, Extreme ed Ultra), Time Spy (Normal ed Extreme), Port Royal ed ovviamente il nuovissimo Speed Way. Nei grafici il punteggio complessivo ottenuto.
Grazie ai recenti aggiornamenti del programma è stato finalmente reso possibile verificare le potenzialità offerte dalle recenti soluzioni grafiche GeForce RTX di NVIDIA. Il nuovissimo preset Port Royal, infatti, ha portato sui nostri schermi non soltanto il ray-tracing in tempo reale, sfruttando le API DirectX Raytracing (DXR), ma anche l’interessante Deep Learning Super-Sampling (DLSS), una tecnica di miglioramento della qualità dell’immagine basata sull’intelligenza artificiale, capace di sfruttare le nuove unità Tensor Cores al fine di competere a livello qualitativo con tecniche anti-aliasing tradizionali quali il TAA pur senza impattare eccessivamente a livello prestazionale. L’ultimo aggiornamento del programma, inoltre, supporta appieno anche il DLSS di terza generazione, introdotto con l’architettura Ada Lovelace e sfruttabile esclusivamente con le ultime soluzioni grafiche GeForce RTX 40 Series.
Nell’ultima versione del programma troviamo anche un nuovo ed interessante feature test, capace di mostrare i benefici del Variable-Rate Shading (VRS) integrato nelle librerie DirectX 12. Questa particolare tecnica è espressamente pensata per incrementare le prestazioni velocistiche andando a ridurre il livello di dettaglio dell’ombreggiatura in modo selettivo o più precisamente in quelle parti della scena che impattano in maniera minima e marginale sulla qualità complessiva dell’immagine.
Il VRS è pienamente supportato dai processori grafici NVIDIA basati sia su architettura Turing che Ampere e per questo motivo ne abbiamo verificato il corretto funzionamento e ne riportiamo i risultati ottenuti:
Sempre tra i vari feature test inclusi nel programma troviamo il recente DirectX Raytracing, un preset espressamente progettato per rendere le prestazioni del ray-tracing il fattore limitante. Invece di fare affidamento sul rendering tradizionale, l’intera scena viene renderizzata con ray-tracing e finalizzata in un unico passaggio. Il risultato del test, di conseguenza, consente di misurare e confrontare le prestazioni dell’hardware dedicato al ray-tracing nelle schede grafiche più recenti sul mercato.
[nextpage title=”DX11: Unigine Heaven Benchmark v4.0 “]
Unigine ha aggiornato il suo benchmark DirectX 11, che permette agli utenti di provare la propria scheda video con le nuove librerie grafiche. Basato su motore Unigine, il benchmark Heaven v4.0 supporta schede video DirectX 11, 10, 9, OpenGL e il 3D Vision Surround di Nvidia.
Tra le novità la possibilità di avere a disposizione dei preset per avere delle performance paragonabili immediatamente tra gli utenti.
I test sono stati condotti utilizzando il preset Extreme alle seguenti risoluzioni: 1920×1080, 2560×1440 e 3840×2160. Nei grafici i risultati ottenuti, espressi sotto forma di Score finale e di FPS medi.
[nextpage title=”DX11: Unigine2 Superposition Benchmark v1.1″]
Direttamente dagli sviluppatori degli apprezzati Heaven e Valley, e seppur con un leggero ritardo sulla tabella di marcia, ecco che finalmente vede la luce il nuovo software di benchmark Superposition, basato sul potente motore grafico di nuova generazione Unigine 2, capace di spremere all’inverosimile anche le più prestanti soluzioni grafiche sul mercato.
Come di consueto sono previsti vari profili predefiniti, che consentiranno di ottenere risultati, in termini prettamente prestazionali, facilmente confrontabili. Rispetto al passato è stato implementato un database online, nel quale verranno raccolti i risultati ottenuti dagli utenti e poter quindi fare confronti su ben più larga scala.
Oltre a questo sono state introdotte nuove modalità, a cominciare da una simulazione interattiva dell’ambiente, denominata “Game”, alla possibilità di sfruttare i più moderni visori per realtà virtuale, come Oculus Rift e HTC Vive. Viene inoltre offerta la possibilità di verificare la piena stabilità del proprio comparto grafico, grazie allo “Stress Test” integrato (esclusiva della versione Advanced del programma).
I test sono stati condotti utilizzando i preset 1080p Extreme, 4K Optimized e 8K Optimized. Nei grafici i risultati ottenuti, espressi sotto forma di Score finale e di FPS medi.
[nextpage title=”VR: VRMark Advanced”]
La suite VRMark, sviluppata da Futuremark (attualmente UL Benchmarks) consente di verificare se il nostro sistema è in grado di garantire una buona esperienza con le applicazioni di alla realtà virtuale, così da valutare eventualmente l’acquisto di uno dei moderni visori dedicati.
Per ovvi motivi, quindi, non sarà necessario disporre di un visore fisicamente collegato al computer per eseguire i vari preset previsti dal programma, ma al contrario ci si potrà semplicemente affidare al proprio monitor.
Nei grafici la sintesi dei risultati ottenuti eseguendo tutti e tre i preset previsti (Orange Room, Cyan Room e Blue Room), espressi sotto forma di Score Finale e di Frames Medi Elaborati:
[nextpage title=”GPGPU: V-Ray Benchmark”]
V-Ray Benchmark è un tool completamente gratuito per la misura delle performance velocistiche del proprio hardware nel rendering con V-Ray. È disponibile gratuitamente, previa registrazione su chaosgroup.com e verrà eseguito senza requisiti di licenza come applicazione autonoma.
Il programma prevede la possibilità di eseguire rendering di raytrace sfruttando la CPU oppure la/e schede grafiche presenti. V-Ray è uno dei principali raytracers al mondo e viene utilizzato in molte industrie in fase di architettura e progettazione automobilistica.
È stato utilizzato anche in oltre 150 immagini cinematografiche e numerose serie televisive episodiche. Ha inoltre vinto un premio Oscar per il conseguimento scientifico e tecnico nel 2017.
Nel grafico il tempo (espresso in Secondi) necessario al rendering della scena di riferimento, eseguita con impostazioni predefinite, sfruttando il solo processore grafico:
Chaosgroup ha recentemente rilasciato una nuova versione del programma, arricchita con un’inedita modalità di testing espressamente pensata per sfruttare appieno le tecnologie implementate nelle soluzioni grafiche NVIDIA GeForce RTX. Nel grafico che segue riportiamo lo score finale ottenuto (espresso in Vrays) eseguendo il nuovo test con impostazioni predefinite:
[nextpage title=”GPGPU: Indigo Benchmark”]
Indigo Bench è un’applicazione di benchmark standalone basata sul motore di rendering avanzato di Indigo 4, utile per misurare le prestazioni delle moderne CPU e GPU. Grazie all’utilizzo di OpenCL standard del settore, è supportata un’ampia varietà di GPU di NVIDIA, AMD e Intel.
Il programma è completamente gratuito e può essere utilizzato senza una licenza Indigo su Windows, Mac e Linux.
Nel grafico lo score ottenuto in seguito al completamento del rendering di entrambe le scene di riferimento previste, eseguito con impostazioni predefinite.
[nextpage title=”GPGPU: Blender Benchmark”]
Blender è un famoso programma (completamente Open Source) di modellazione 3D, animazione e rendering. Viene spesso utilizzato anche per il calcolo delle performance dei microprocessori e delle GPU.
La nuova è inoltre in grado di migliorare drasticamente l’esperienza d’uso del programma, dalla reattività fino ai tempi di rendering. Grazie a un lavoro esteso, che ha permesso di rivedere l’architettura del software e integrare numerose ottimizzazioni per sfruttare le CPU e GPU moderne, la nuova versione di Blender si preannuncia un “must” per i professionisti dell’immagine.
Nel grafico lo score (espresso in Samples/Min) ottenuto in seguito al completamento del rendering delle tre scene di riferimento previste (Monster, Junk Shop e Class Room), eseguito con impostazioni predefinite.
[nextpage title=”DX12: Assassin’s Creed Valhalla “]
Assassin’s Creed: Valhalla è un videogioco sviluppato da Ubisoft Montreal e pubblicato da Ubisoft. È il dodicesimo capitolo della saga principale di Assassin’s Creed, sequel di Assassin’s Creed: Odyssey, pubblicato nel 2018.
Un anno dopo aver rivissuto le memorie della Misthios, Layla Hassan si trova nel New England per indagare su due eventi apparentemente non correlati: il progressivo rinforzo del campo geomagnetico (fenomeno che causa un’eterna aurora boreale) e il ritrovamento del corpo di un guerriero vichingo del IX secolo, risalente a ben due secoli prima della presenza norrena in America.
Nonostante sia ancora turbata dalla morte di Victoria Bibeau, e sebbene senta un forte influsso proveniente dal Bastone di Hermes, Layla decide di rivivere attraverso l’Animus le memorie del guerriero vichingo, coadiuvata dai due Assassini Shaun Hastings e Rebecca Crane….
Il gioco, presentato lo scorso mese di novembre su PC, è in grado di sfruttare le API DirectX 12. I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Cyberpunk 2077″]
Cyberpunk 2077 è un videogioco sparatutto in prima persona di genere action RPG e open world, sviluppato da CD Projekt RED e pubblicato da CD Projekt il 10 dicembre 2020 inizialmente per Xbox One, Microsoft Windows, PlayStation 4 e Google Stadia.
Night City è una megalopoli americana controllata da corporazioni. Vede il conflitto tra le dilaganti guerre tra bande contendendosi il dominio. La città fa affidamento alla robotica per aspetti quotidiani come la raccolta dei rifiuti, la manutenzione e il trasporto pubblico. I senzatetto abbondano ma non gli viene preclusa la modifica cibernetica, dando luogo a dipendenza cosmetica e conseguente violenza.
Il gioco inizia con la selezione di uno dei tre percorsi di vita per il personaggio V controllato dal giocatore: Nomade, vita da strada o Corporativo. Tutti e tre i percorsi coinvolgono V che inizia una nuova vita a Night City con il delinquente locale Jackie Welles (Jason Hightower) ed il netrunner, T-Bug.
Nel 2077, il fixer locale Dexter DeShawn (Michael-Leon Wooley) assume V e Welles per rubare un biochip noto come “il relic” dalla Arasaka Corporation. Dopo esserne entrati in possesso, il piano va storto quando assistono all’omicidio del leader della megacorp Saburo Arasaka (Masane Tsukayama) per mano del figlio traditore Yorinobu (Hideo Kimura). Yorinobu insabbia l’omicidio come un avvelenamento ed avvia un intervento della sicurezza dove T-Bug verrà uccisa dai netrunner dell’Arasaka. V e Welles fuggono, ma Jackie viene ferito a morte e la custodia protettiva del Chip viene danneggiata, costringendo V a inserire il biochip nel cyberware della sua testa….
Il gioco è in grado di sfruttare le ultime DirectX 12, oltre che il ray-tracing dei riflessi, ombre e illuminazione tramite API DirectX Raytracing (DXR) e la tecnologia Deep Learning Super-Sampling (DLSS) di NVIDIA.
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: DiRT 5″]
Dirt 5 è un videogioco di corse simcade sviluppato e pubblicato da Codemasters. Il gioco è stato rilasciato per Microsoft Windows, PlayStation 4 e Xbox One il 6 novembre 2020. È stato l’ultimo videogioco rilasciato da Codemasters come società indipendente prima dell’acquisizione da parte di Electronic Arts, avvenuta il 18 febbraio 2021.
Il gioco è come da tradizione incentrato sulle corse fuoristrada. Le discipline includono rallycross, corse su ghiaccio, Stadium Super Trucks e buggy fuoristrada. I giocatori possono competere in eventi in una vasta gamma di località, vale a dire Arizona, Brasile, Cina, Grecia, Italia, Marocco, Nepal, New York City, Norvegia e Sud Africa. Il gioco include un sistema meteorologico dinamico e le stagioni, che influenzano le corse; ad esempio, il giocatore può competere solo in eventi di corse sul ghiaccio a New York durante i mesi invernali.
L’ultimo capitolo della serie è in grado di sfruttare le ultime DirectX 12, oltre che il ray-tracing delle ombre dei veicoli tramite API DirectX Raytracing (DXR).
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: F1 2022″]
F1 22 (o anche Formula 1 2022) è un videogioco di guida sviluppato da Codemasters, ed uscito il primo luglio 2022. È il secondo capitolo della serie distribuito da EA Sports, dopo aver acquisito Codemasters a metà febbraio 2021. È basato sul campionato mondiale di Formula 1 2022 e sui campionati di Formula 2 2022 e 2021.
Il gioco, presentato lo scorso mese di giugno su PC, è in grado di sfruttare le API DirectX 12, oltre che il ray-tracing tramite API DirectX Raytracing (DXR) e la tecnologia Deep Learning Super-Sampling (DLSS) di NVIDIA.
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Far Cry 6″]
Far Cry 6, ultimo titolo della fortunata serie sviluppata da Ubisoft, è ambientato nell’isola caraibica fittizia di Yara, un paradiso tropicale dove un guerrigliero ambisce a riportare l’isola al suo antico splendore, combattendo per la libertà contro “El presidente” Antón Castillo, un dittatore malvagio e temuto dal popolo.
L’ultimo capitolo della saga, presentato lo scorso mese di ottobre su PC, è sviluppato dalla Ubisoft Toronto e Ubisoft Montreal ed è in grado di sfruttare le ultime DirectX 12, oltre che il ray-tracing dei riflessi e delle ombre tramite API DirectX Raytracing (DXR).
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Forza Horizon 5″]
Forza Horizon 5 è un videogioco open world di guida, sviluppato da Playground Games e pubblicato il 9 novembre 2021 da Xbox Game Studios in esclusiva per Xbox One, Xbox Series X/S e Windows. Il gioco sfrutta l’avanzato motore grafico ForzaTech dei Turn 10 Studios.
Annunciato all’E3 2021 durante la conferenza Xbox/Bethesda, rappresenta il quindicesimo capitolo nella serie Forza e il quinto della serie spin-off Horizon. Il videogioco è ambientato in Messico e introduce varie novità, tra cui una componente online migliorata rispetto al capitolo precedente e nuovi effetti meteorologici.
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Gears 5″]
Gears 5 è un videogioco sparatutto in terza persona sviluppato da The Coalition e pubblicato da Microsoft Game Studios per Microsoft Windows e Xbox One.
È il secondo capitolo della nuova trilogia di Gears of War annunciato durante l’E3 2018 di Los Angeles previsto provvisoriamente per un generico 2019. La storia prosegue quella del precedente capitolo e si focalizzerà su Kait Diaz, una COG che si ritrova a dover disubbidire a degli ordini diretti per cercare di bloccare la minaccia e scoprire il mistero che lega i suoi incubi allo Sciame…
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Hitman 3″]
Hitman 3 è un videogioco d’azione stealth, ottavo episodio della serie Hitman e seguito del videogioco omonimo. Il gioco è stato sviluppato da IO Interactive e pubblicato da Warner Bros. Interactive Entertainment per PC, PlayStation 4 e Xbox One nel mese di gennaio 2021.
Il gioco è in terza persona e permette al giocatore di controllare l’Agente 47, un sicario professionista che viaggia in vari luoghi per completare le sue missioni…
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Horizon Zero Dawn”]
Horizon: Zero Dawn è un videogioco action RPG open world, a sfondo post-apocalittico, sviluppato da Guerrilla Games e pubblicato da Sony Interactive Entertainment per PlayStation 4 nel 2017 e successivamente per Microsoft Windows nell’estate 2020.
La storia segue le avventure di Aloy, una cacciatrice che vive all’interno di un mondo post-apocalittico dominato da robot ostili (le “Macchine”), dove gli esseri umani sono riuniti in fazioni tribali. Avendo vissuto fin da bambina emarginata dalla sua stessa tribù, Aloy decide di scoprirne il motivo e di cercare delle risposte sul suo passato e sulla calamità che ha colpito l’umanità.
Il gioco mette a disposizione un open world esplorabile liberamente, con un gran numero di missioni principali e secondarie da completare. Il giocatore può combattere le Macchine con lance, armi da lancio e tattiche stealth, avendo poi la possibilità di saccheggiare i resti dei nemici dopo averli sconfitti per ottenere utili risorse…
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Metro Exodus”]
Metro Exodus è un videogioco action-adventure FPS del 2019, sviluppato da 4A Games e pubblicato da Deep Silver per PlayStation 4, Xbox One e PC. Si tratta del terzo capitolo della serie di videogiochi Metro, basata sui romanzi di Dmitrij Gluchovskij.
Ambientato nel 2036, due anni dopo gli eventi di Metro: Last Light, su una Terra post-apocalittica che è stata devastata 23 anni fa da una guerra nucleare. Il gioco continua la storia di “Redenzione”, Metro: Last Light. Il giocatore assume il ruolo di Artyom, 27 anni, che fugge dalla metropolitana di Mosca e parte per un viaggio, attraverso i continenti, con Spartan Rangers fino all’Estremo Oriente. Artyom viaggia per la prima volta lungo il fiume Volga, non lontano dagli Urali, per raggiungere una locomotiva conosciuta come “Aurora” che viaggia verso est. La storia si svolge nel corso di un anno, a partire dal duro inverno nucleare nella metropolitana…
Quest’ultimo capitolo, oltre a sfruttare le ultime librerie DirectX 12, è tra i primi titoli ad implementare il pieno supporto al ray-tracing tramite API DirectX Raytracing (DXR) e alla tecnologia Deep Learning Super-Sampling (DLSS) di NVIDIA.
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Shadow of the Tomb Raider”]
Circa due mesi dopo la sua precedente avventura, Lara Croft e il suo amico Jonah sono nuovamente sulle tracce della Trinità. Seguendo gli indizi lasciati dal padre di Lara, i due arrivano a Cozumel, in Messico, per spiare il capo della cellula locale, il dottor Pedro Dominguez; durante una spedizione in una tomba già visitata dall’organizzazione, Lara scopre alcune notizie circa una misteriosa città nascosta.
Successivamente, camuffandosi con gli abiti tipici per il dia de los muertos, Lara riesce a seguire gli adepti della Trinità, scoprendo così che Dominguez è addirittura il capo dell’organizzazione e che è sulle tracce di una misteriosa reliquia nascosta in un tempio non ancora localizzato. Vivi momenti di pura azione, conquista nuovi luoghi ostili, combatti usando tattiche di guerriglia ed esplora tombe mortali in questa evoluzione del genere action survival.
L’ultimo capitolo della saga (il settimo in ordine cronologico), presentato lo scorso mese di settembre su PC, è sviluppato dalla Crystal Dynamics e distribuito da Square Enix ed è in grado di sfruttare le ultime DirectX 12, oltre che il ray-tracing delle ombre tramite API DirectX Raytracing (DXR) e la tecnologia Deep Learning Super-Sampling (DLSS) di NVIDIA.
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”DX12: Watch Dogs: Legion”]
Watch Dogs: Legion è un videogioco di genere action-adventure sviluppato da Ubisoft Toronto e distribuito da Ubisoft il 29 ottobre 2020 su Microsoft Windows, PlayStation 4, Xbox One e Google Stadia, il 10 novembre su Xbox Series X e S, ed il 12 novembre su PlayStation 5. È il terzo capitolo della serie Watch Dogs e sequel di Watch Dogs 2.
Nel 2026, grazie a un sistema di sorveglianza avanzato noto come ctOS, il gruppo hacker londinese DedSec ha preso il controllo del Regno Unito nell’atto di combattere la Albion, società di sicurezza privata, il quale, influenzando il governo, ha creato uno stato autoritario. Per affrontarli, il gruppo potrà reclutare ogni cittadino di Londra, ognuno con le proprie capacità, problematiche e esperienze. Assoldandoli all’interno del DedSec per liberare la città, ogni personaggio nel gioco avrà le proprie abilità e fornirà un’influenza dinamica alla narrativa del gioco man mano che la storia avanzerà…
Il gioco è in grado di sfruttare le ultime DirectX 12, oltre che il ray-tracing dei riflessi tramite API DirectX Raytracing (DXR) e la tecnologia Deep Learning Super-Sampling (DLSS) di NVIDIA.
I test sono stati condotti con il benchmark integrato usando i seguenti settaggi:
[nextpage title=”Vulkan: Red Dead Redemption 2″]
Red Dead Redemption 2 è un videogioco action-adventure del 2018, sviluppato e pubblicato da Rockstar Games per Xbox One, PlayStation 4, Microsoft Windows e Google Stadia. Si tratta del prequel di Red Dead Redemption (2010) ed è il terzo capitolo della saga di videogiochi Red Dead, cominciata nel 2004 con Red Dead Revolver.
Il titolo è considerato dalla critica e dall’utenza come un capolavoro della storia videoludica. Il gioco ha ricevuto oltre 175 premi nella categoria Game of the Year. È, al 12 aprile 2020, con una votazione di 97 su 100, il videogioco più acclamato per Xbox One e PlayStation 4. Il 5 novembre 2019 è stata pubblicata la versione PC che insieme alla versione per Xbox One X e Google Stadia sono gli unici in grado a poter eseguire il gioco in 4K nativi.
RDR2 è un gioco d’avventura e azione in prima e terza persona ambientato in un open world a tema western. Il giocatore impersona Arthur Morgan, un fuorilegge appartenente alla banda Van der Linde. Come i suoi compagni il protagonista dovrà provvedere al sostentamento del gruppo, contribuendo alle provvigioni dell’accampamento e alle casse della banda…
I test sono stati condotti con il benchmark integrato sfruttando le API Vulkan, usando i seguenti settaggi:
[nextpage title=”Vulkan: Wolfenstein YoungBlood”]
Wolfenstein: Youngblood è uno sparatutto in prima persona di genere fantastorico-horror sviluppato da MachineGames e pubblicato da Bethesda Softworks nel luglio 2019. Vent’anni dopo Wolfenstein II: The New Colossus, l’America e gran parte del mondo sono liberati dal controllo nazista e William “B.J.” Blazkowicz e sua moglie Anya sono in grado di crescere in tranquillità le loro gemelle, Jessica e Sophia, ed insegnare loro le basi dell’autodifesa.
Ad ogni modo, nel 1980, Blazkowicz misteriosamente scompare senza lasciare alcuna traccia di sé. Jessica, Sophia e la loro amica Abby, figlia di Grace Walker, scoprono una stanza segreta nell’attico con una mappa che indica che Blazkowicz si è portato nel territorio dei nazisti sino a raggiungere Neu-Paris per incontrare i membri della resistenza francese.
Credendo che le autorità americane non seguiranno Blazkowicz nella Francia nazista, le ragazze rubano un elicottero dell’FBI e un paio di armature potenziate e si portano in Francia a cercare il padre…
I test sono stati condotti usando i seguenti settaggi:
NOTA: Per la misurazione degli FPS abbiamo utilizzato l’ultima versione disponibile del software OCAT, liberamente scaricabile a questo indirizzo e capace di registrare correttamente il framerate indipendentemente dalle API in uso.
[nextpage title=”DX11: The Witcher 3 Wild Hunt”]
The Witcher 3: Wild Hunt è un gioco di ruolo di nuova generazione, creato dal team polacco CD Projekt RED, incentrato sulla trama e ambientato in un mondo aperto. L’universo fantasy del gioco ha una resa visiva sbalorditiva e la trama è ricchissima di scelte rilevanti, con vere conseguenze. Il giocatore interpreta Geralt of Rivia, un cacciatore di mostri che ha l’incarico di trovare un bambino il cui destino è al centro di un’antica profezia.
Geralt of Rivia è un witcher, un cacciatore di mostri professionista. I suoi capelli bianchi e gli occhi da felino lo rendono una leggenda vivente. Addestrati sin dalla prima infanzia e mutati geneticamente per dotarli di abilità, forza e riflessi di entità sovrumana, i witcher come Geralt sono una sorta di difesa “naturale” per l’infestazione di mostri che attanaglia il mondo in cui vivono.
Nei panni di Geralt, ti imbarcherai in un viaggio epico all’interno di un mondo sconvolto dalla guerra che ti porterà inevitabilmente a scontrarti con un nemico oscuro, peggiore di qualsiasi altro l’umanità abbia affrontato sinora, la Caccia selvaggia…
I test sono stati condotti usando i seguenti settaggi:
NOTA: Per la misurazione degli FPS abbiamo utilizzato l’ultima versione disponibile del software OCAT, liberamente scaricabile a questo indirizzo e capace di registrare correttamente il framerate indipendentemente dalle API in uso.
[nextpage title=”Considerazioni e Riepilogo Risultati Benchmark Sintetici e Giochi”]
La nuovissima INNO3D GeForce RTX 4080 16GB iCHILL X3 si è dimostrata un prodotto molto interessante, capace di ottenere risultati a dir poco eccellenti in ogni ambito in cui è stata messa alla prova, che sia il puro gaming oppure uno dei tanti benchmark sintetici. Rispetto alle proposte concorrenti, la soluzione messa a punto dal noto produttore asiatico si differenzia soprattutto per l’esclusivo, e dobbiamo sottolineare imponente, sistema di dissipazione del calore impiegato, espressamente pensato per garantire il mantenimento di ottime temperature di esercizio pur senza rinunciare al miglior confort acustico possibile.
Dopo aver utilizzato la scheda per tutto il tempo necessario all’esecuzione delle nostre prove, infatti, dobbiamo ammettere di non aver mai avvertito una rumorosità che potesse risultare fastidiosa. Inoltre, durante i momenti di scarso utilizzo del processore grafico entra in gioco la tecnologia proprietaria Intelligent Fan Stop 0dB, che provvederà a disattivare completamente tutte le ventole di raffreddamento presenti, ottenendo una silenziosità totale, equivalente a quella di una soluzione passiva.
La nostra suite di prova prevede l’utilizzo dei più noti e diffusi benchmark sintetici e giochi, scelti in maniera da poter offrire un quadro complessivo preciso ed affidabile delle performance velocistiche offerte dalla soluzione grafica in esame. In considerazione della notevole mole di dati rilevati durante l’esecuzione delle nostre prove abbiamo deciso di renderne più semplice l’interpretazione proponendovi un riepilogo delle performance relative registrate nei confronti di una delle precedenti soluzioni di fascia alta da noi analizzate, nello specifico l’ottima INNO3D GeForce RTX 3080 Ti iCHILL X4, basata sul processore grafico Ampere GA102 in variante leggermente depotenziata (GA102-225).
Come vediamo, i risultati ottenuti con i vari benchmark sintetici mostrano un distacco, rispetto alla precedente soluzione di fascia alta, del tutto consistente e mediamente pari al +40% ai valori di targa e prossimo al +46% applicando il nostro profilo OC-Daily.
I valori di picco vengono registrati in ambito GPGPU, nel quale ritroviamo numerosi applicativi capaci di sfruttare in maniera decisamente più marcata ed efficiente quella che possiamo definire come la più significativa novità architetturale introdotta da NVIDIA in occasione della precedente architettura Ampere e riconfermata in Ada Lovelace, vale a dire la possibilità di eseguire il doppio delle operazioni in virgola mobile (FP32) per ogni ciclo di clock.
Non è un caso, quindi, che facendo di questi software si ottengano valori notevolmente superiori, complici anche le numerose ottimizzazioni, il sostanzioso aumento della memoria cache ed il significativo incremento delle frequenze di clock. I risultati da noi ottenuti parlano chiaro, soprattutto quelli registrati con la più recente versione di V-Ray 5 Benchmark, nel quale facendo uso del nuovo preset espressamente dedicato alle soluzioni NVIDIA GeForce RTX, si sfiora il +60% di incremento, e con l’interessante feature test DirectX Raytracing incluso nella suite 3DMark, dove viene superata la GeForce RTX 3080 Ti di oltre il +50%.
Anche con i giochi testati la situazione è abbastanza similare e vede la nuova soluzione grafica Ada Lovelace nettamente in vantaggio sulla precedente proposta di fascia alta GA102. In questo caso abbiamo deciso di proporvi grafici riepilogavi a sé stanti, uno per ogni risoluzione di prova (1080p, 1440p e 2160p). Alla risoluzione più bassa testata, ovvero a 1920×1080 otteniamo una media del +37% in condizioni di default e circa +40% applicando il nostro profilo in overclock, con picco massimo che sfiora il +65% nell’ultimo capitolo della saga di Assassin’s Creed.
Salendo a risoluzioni ben più consone alle potenzialità delle soluzioni grafiche testate, ovvero a 2560×1440 e 3840×2160, la proposta di INNO3D basata su GPU AD103 distanzia ancor più marcatamente la precedente GeForce RTX 3080 Ti, nello specifico di un +37.5% in 1440p a default (che sale a circa +41% in overclock) e +39% in 2160p a default (+43.5% in overclock).
Nonostante il nostro sistema di prova preveda l’uso della più recente piattaforma AMD, basata su microprocessore Ryzen 9 7950X 16C/32T e comparto di memoria DDR5 a bassa latenza, osserviamo come la potente GeForce RTX 4080 si trovi, in più di un’occasione, ad essere marcatamente limitata dalla CPU, specialmente a risoluzione Full-HD 1080p. Questo è abbastanza evidente, ad esempio, nell’ultimo capitolo dell’apprezzata serie Far Cry.
Alla luce dei risultati ottenuti appare innegabile come questa nuova soluzione grafica di fascia medio alta riesca a garantire un’esperienza di gioco davvero più che soddisfacente in ogni scenario, con performance che ad oggi si collocano ai massimi livelli, surclassate solamente dall’ancor più prestante GeForce RTX 4090, basata su GPU AD102. Del tutto notevole è anche il rapporto performance/watt, che grazie all’adozione dell’avanzata tecnologia produttiva a 5 nanometri custom NVIDIA (4N), messa a punto dalla taiwanese TSMC consente di “umiliare” la precedente GPU di fascia alta, con decine di Watt in meno alla presa.
Riteniamo la nuova GeForce RTX 4080 la scelta idonea per tutti coloro che intendono giocare al massimo della qualità (eventualmente anche facendo uso del ray-tracing in tempo reale a livello medio/alto) con tutti gli ultimi titoli disponibili, su pannelli preferibilmente 4K Ultra-HD, anche ad alto refresh.
In quest’ultimo scenario abbiamo osservato come il Deep Learning Super-Sampling (DLSS) può fare la differenza, rendendo molto più accessibile l’uso del ray-tracing in tempo reale. Con gli ultimi aggiornamenti dei vari titoli compatibili da parte degli sviluppatori, nonché dei driver grafici NVIDIA, abbiamo finalmente raggiunto un’implementazione più che soddisfacente di questa eccellente tecnologia, capace di assicurare un deciso guadagno prestazionale a fronte di una resa visiva che si mantiene su alti livelli.
Il nostro profilo in overclock prevede un incremento delle frequenze pari a poco più del +5% medio (+4.5% sul Base Clock, circa +4% sul Boost Clock e poco più del +7% per quanto riguarda i nuovi moduli GDDR6X), a fronte del quale otteniamo un impatto sulle prestazioni velocistiche, come possiamo osservare nel seguente grafico riepilogativo, pari all’incirca al +3% medio.
[nextpage title=”Temperature, Rumorosità e Consumi”]
Durante le nostre prove abbiamo potuto constatare che sia le ventole che il gruppo dissipante svolgono egregiamente il loro compito, senza mai eccedere in quanto a rumorosità e garantendo il mantenimento di buone temperature di esercizio, sia a default che con nostro profilo di overclock daily.
Precisiamo che tutto l’hardware è installato su un banchetto da test DimasTech e che la temperatura ambiente, durante le misurazioni, era di circa 25°C.
Temparature Rilevate
Di seguito l’andamento delle temperature con scheda grafica in condizione Idle e Full-Load (Gaming e Benchmark), registrato utilizzando il software GPU-Z:
Come possiamo osservare dai grafici riepilogativi le temperature di esercizio medie si mantengono ben sotto la soglia dei 70°C, anche in condizione di overclocking e con carico consistente, come quello rappresentato dal benchmark integrato nel gioco Metro Exodus Enhanced Edition, eseguito per tre volte consecutive alle massime impostazioni grafiche (Ray Tracing attivo) e ad una risoluzione di 3840×2160 (4K). Leggermente inferiori le temperature massime registrate durante l’esecuzione del benchmark Unigine Heaven 4.0 (Preset Extreme a risoluzione Full-HD), con una media di 65°C facendo uso del nostro profilo OC-Daily.
Come osservato nel corso del nostro articolo con la nuova architettura Ada Lovelace vengono riconfermate le prestanti memorie GDDR6X messe a punto da Micron Technology, capaci di assicurare un raddoppio della bandwidth rispetto alle tradizionali GDDR6. Sulla soluzione in esame troviamo moduli certificati a ben 24Gbps (MT61K512M32KPA-24:U), fissati poi entro le specifiche previste da NVIDIA per le nuove soluzioni GeForce RTX 4080, ovvero 22.4Gbps.
Nelle nostre prove in overclock confermiamo di aver raggiunto i valori di specifica dei moduli senza alcun problema di sorta ed in piena stabilità. Anche con queste componenti decisamente “calde” il sistema di dissipazione messo a punto da INNO3D si è dimostrato perfettamente in grado di assicurare il mantenimento di temperature di esercizio più che soddisfacenti, e soprattutto abbondantemente entro i livelli di guardia riportati nel datasheet ufficiale. Ricordiamo che tutto l’hardware è installato su un banchetto da test DimasTech e che la temperatura ambiente, durante le misurazioni, era di circa 25°C.
Come ormai sappiamo le ultime soluzioni grafiche di NVIDIA hanno di fatto abbandonato la tradizionale logica di funzionamento a frequenza fissa in favore di un approccio di tipo dinamico, espressamente pensato per consentire una variazione automatica della frequenza di clock del processore grafico in relazione non solamente al carico di lavoro, ma anche a condizioni fisiche come le temperature di esercizio, i consumi energetici e quant’altro, arrivando a raggiungere anche frequenze massime anche sensibilmente superiori a quelle per così dire normali e di base, grazie alla tecnologia GPU Boost, giunta con Ada Lovelace alla sua sesta generazione.
Lo scopo è quello di sfruttare sino in fondo la potenza di calcolo della scheda grafica ogni qual volta vi siano le condizioni idonee per poterlo fare, in maniera da garantire un margine di guadagno sulle performance apprezzabile e soprattutto del tutto “gratuito”. La nostra scheda grafica, in condizioni normali previste dal produttore, prevede una frequenza di Boost già particolarmente elevata, pari a 2.565MHz (60MHz in più rispetto alle specifiche di riferimento di NVIDIA).
Come possiamo osservare dai grafici riepilogativi, questa frequenza viene abbondantemente superata durante le nostre sessioni di prova, ottenendo una media pari a 2.710MHz con Metro Exodus Enhanced Edition e ben 2.835MHz con il software di benchmark Unigine Heaven 4.0. Alla stessa maniera in condizione di overclock manuale delle frequenze otteniamo, a fronte di una frequenza di Boost prevista di 2.665MHz, una media reale sensibilmente superiore, pari a circa 2.775MHz con il nostro gioco, e 2.915MHz con il software di benchmark di Unigine.
Rumorosità Rilevata
Per il rilevamento della rumorosità durante il funzionamento di ventole e dissipatori abbiamo scelto di usare strumentazione professionale a marca PCE, e nello specifico il fonometro PCE-999.
Il test di rumorosità è uno dei più difficili da effettuare, poiché durante la fase di test qualsiasi rumore, anche minimo, può far balzare il grafico verso l’alto, di fatto invalidando il lavoro effettuato e costringendoci a ripetere il test dall’inizio.
Per questo motivo, non disponendo purtroppo di una camera anecoica, ci siamo veduti costretti ad aspettare le tarde ore notturne per poter effettuare i nostri test in tutta tranquillità e con rumore ambientale il più basso e costante possibile. Lo strumento utilizzato, il fonometro PCE-999, è molto sensibile al rumore ambientale. Da questo valore, tipico di qualsiasi ambiente domestico, è necessario partire per poter analizzare la rumorosità del complesso dissipatore/ventola.
Nel grafico che segue vengono riportate le rilevazioni fatte ad una distanza, dalla scheda grafica, prima di 60, poi di 30, ed infine di 15 cm. Il regime di rotazione delle ventole è stato impostato manualmente al 25 (il minimo impostabile), 50, 60, 75, 85 ed infine al 100% (il massimo impostabile), in maniera da fornire un quadro il più possibile preciso della situazione.
Le nostre misurazioni confermano l’ottima silenziosità del sistema di dissipazione messo a punto da INNO3D, per il quale sono state previste ben tre ventole da ben 98 millimetri di diametro, con l’aggiunta del pieno supporto verso la tecnologia proprietaria Intelligent Fan Stop 0dB, che provvederà a sospenderne completamente il funzionamento qualora il processore grafico sia in condizione di riposo (Idle). Questo garantirà una rumorosità praticamente assente durante le fasi di scarso utilizzo della scheda grafica (ed in tutti quei casi nei quali la temperatura della GPU si mantiene al di sotto dei 40°C), del tutto equivalente a quella ottenibile con una soluzione di tipo passivo.
Durante l’utilizzo normale della scheda abbiamo osservato il raggiungimento di un regime di rotazione massimo prossimo al 55%, valore che corrisponde ad una rumorosità praticamente impercettibile e quindi non in grado di risultare fastidiosa o compromettere il confort acustico. Procedendo con un’impostazione di tipo manuale, e indicativamente dal 75-80% a salire, riscontriamo un livello di rumorosità non proprio contenuto e a nostro avviso non indicato ad un utilizzo prolungato.
Quanto scritto non fa che confermare l’ottima efficienza di questo imponente dissipatore di calore marchiato INNO3D, contraddistinto da una superficie radiante estremamente generosa e coadiuvato da ottime ventole di raffreddamento.
Consumi Rilevati
Tra i principali punti di forza della nuova architettura Ada Lovelace di NVIDIA troviamo non soltanto la nuova ed avanzata tecnologia produttiva a 5 nanometri custom NVIDIA (4N) della taiwanese TSMC, ma soprattutto tutta una serie di miglioramenti e ottimizzazioni mirate al raggiungimento non solo di performance velocistiche sempre più elevate rispetto alle precedenti soluzioni, ma anche ad una maggiore efficienza per Watt. Il nuovo processore grafico di fascia medio alta AD103-300, di cui è dotata la scheda grafica in esame, si è dimostrato, come vedremo, veramente molto interessante.
Di seguito vi mostriamo i consumi del sistema di prova completo, misurati direttamente alla presa di corrente. Le misurazioni sono state ripetute più volte, nel grafico la media delle letture nelle seguenti condizioni:
- Idle con funzionalità di risparmio energetico attivate;
- Full-Load Gaming eseguendo il benchmark integrato nel gioco Metro Exodus Enhanced Edition a risoluzione 4K (Maxed);
- Full-Load Stress eseguendo 3DMark Port Royal Stress Test.
Anche in questo frangente, la INNO3D GeForce RTX 4080 16GB iCHILL X3, in relazione alle prestazioni offerte, è stata in grado di garantire consumi in linea con quanto ad oggi è possibile ottenere con le attuali tecnologie.[nextpage title=”Conclusioni”]
Per la stesura di questo nostro articolo l’azienda ci ha gentilmente fornito una nuovissima GeForce RTX 4080 iCHILL X3, soluzione che si colloca nella fascia medio-alta del mercato, potendo contare non soltanto sul nuovissimo processore grafico AD103 di NVIDIA, basato sull’interessante architettura Ada Lovelace, ma anche su un ottimo ed imponente sistema di dissipazione del calore, di tipo proprietario a triplo slot, contraddistinto non solo da un aspetto estetico decisamente accattivante, ma soprattutto da ottime performance e notevole silenziosità durante l’uso. Al pari di altre soluzioni del marchio non manca il pieno supporto verso la tecnologia proprietaria Intelligent FAN Stop 0dB, che provvederà, nel caso in cui la GPU non sia sfruttata in modo intensivo o comunque la sua temperatura non superi la soglia prefissata, a disattivare completamente tutte le ventole di raffreddamento, ottenendo una silenziosità totale, equivalente a quella di una soluzione passiva.
In questo particolare modello, inoltre, è stato implementato un sistema di illuminazione a LED di tipo RGB personalizzabile, che si attiverà automaticamente una volta avviato il computer. Indubbiamente un tocco di classe in più che rende questa soluzione ancor più accattivante e gradevole a vedersi, soprattutto all’interno degli ormai diffusi chassis provvisti di paratia laterale finestrata. Viene assicurata la piena compatibilità con le più diffuse tecnologie RGB proprietarie presenti ad oggi sul mercato, tra le quali non possiamo non citare la collaudata AURA Sync di ASUSTek, l’ottima Polychrome RGB di ASRock, e le sempre più diffuse RGB Fusion di GIGABYTE e MysticLight di MSi.
Gli ingegneri INNO3D, come di consueto, oltre alla corretta dissipazione del processore grafico, hanno curato anche quelle delle altre componenti chiave della scheda, spesso trascurate. Il risultato è una scheda grafica che si mantiene abbastanza fresca ed estremamente silenziosa anche dopo ore di utilizzo intensivo. Con gestione automatica del regime di rotazione delle ventole, infatti, non abbiamo quasi mai oltrepassato la soglia dei 65°C, nemmeno applicando il nostro profilo in overclock.
La scheda, come anticipato, si basa sul nuovissimo processore grafico di fascia medio-alta AD103-300, capace di beneficiare delle potenzialità e delle novità introdotte da NVIDIA con l’architettura Ada Lovelace, oltre che degli indubbi vantaggi derivati dall’utilizzo della nuova ed avanzata tecnologia produttiva a 5 nanometri custom NVIDIA (4N) della taiwanese TSMC, tra i quali un performance/watt veramente notevole.
Alla luce dei risultati ottenuti appare innegabile come questa nuova soluzione grafica riesca a garantire un’esperienza di gioco davvero più che soddisfacente in ogni scenario, con performance che ad oggi si collocano ai massimi livelli, inferiori solamente a quelli dell’ancor più prestante GeForce RTX 4090, basata su GPU AD102. Riteniamo la nuova GeForce RTX 4080 la scelta idonea per tutti coloro che intendono giocare al massimo della qualità (eventualmente anche facendo uso del ray-tracing in tempo reale a livello medio/alto) con tutti gli ultimi titoli disponibili, su pannelli preferibilmente 4K Ultra-HD, anche ad alto refresh.
In quest’ultimo scenario abbiamo osservato come il Deep Learning Super-Sampling (DLSS) può fare la differenza, rendendo molto più accessibile l’uso del ray-tracing in tempo reale. Con gli ultimi aggiornamenti dei vari titoli compatibili da parte degli sviluppatori, nonché dei driver grafici NVIDIA, abbiamo finalmente raggiunto un’implementazione più che soddisfacente di questa eccellente tecnologia, capace di assicurare un deciso guadagno prestazionale a fronte di una resa visiva che si mantiene su alti livelli.
Smontando la scheda video non abbiamo sorprese particolari, anzi, ci è apparsa evidente l’ottima cura degli assemblaggi di tutti i componenti. il PCB della scheda grafica che, come anticipato, si mantiene fedele a quello che è il design di riferimento previsto da NVIDIA per le soluzioni basate su GPU GeForce RTX 4080. Il primo particolare che cattura la nostra attenzione è la pulizia del circuito stampato, che risulta davvero ben organizzato, nonostante le dimensioni relativamente compatte.
Il produttore asiatico ha previsto per questa sua nuova soluzione grafica una circuiteria di alimentazione sufficientemente robusta e di qualità. Nello specifico notiamo un design da 14+3 fasi di alimentazione complessive, le prime dedicate al prestante processore grafico, mentre le restanti al comparto di memoria. Questo garantirà una buona efficienza e stabilità in considerazione della richiesta energetica necessaria alla corretta alimentazione del complesso processore grafico AD103. La qualità delle componenti discrete è più che buona e perfettamente in grado non soltanto di soddisfare le richieste energetiche previste ai valori di targa, ma anche di garantire un buon margine in overclock. Non possiamo che definirci pienamente soddisfatti del comportamento di questa nuova soluzione grafica!
La nuova INNO3D GeForce RTX 4080 16GB iCHILL X3 è disponibili da AK Informatica al prezzo di €1.699,00, cifra interessante e del tutto allineata a quella della maggior parte dei prodotti concorrenti contraddistinti da caratteristiche tecniche similari, nonché in parte giustificata dall’eccellente qualità costruttiva e dalla presenza di un sistema di dissipazione del calore proprietario molto efficiente e silenzioso.
Pro:
- Processore grafico di fascia medio-alta NVIDIA AD103-300 basato su architettura Ada Lovelace e provvisto di 9.728 unità CUDA, 304 unità Tensor Cores e 76 unità RT Cores;
- Frequenze operative fissate a 2.205/1.400/2.565MHz (Core/Memorie/Boost);
- Impiego di nuovissimi moduli di memoria GDDR6X a doppia densità certificati a 24Gbps (prodotti da Micron);
- Generosa dotazione di memoria on-board (pari a 16.384MB);
- Layout generale del PCB ordinato e pulito;
- Buona circuiteria di alimentazione da 14+3 fasi;
- Prestazioni complessive indubbiamente ai vertici della categoria anche a risoluzione 4K, decisamente superiori alla precedente soluzione top di gamma gaming GeForce RTX 3080 Ti (GPU GA102);
- Eccellente ed imponente sistema di dissipazione di tipo proprietario a triplo slot, silenzioso ed efficiente;
- Sistema di illuminazione a LED integrato di tipo A-RGB personalizzabile;
- Elevata stabilità e buone temperature d’esercizio durante le lunghe sessioni di test e gaming;
- Ottime tecnologie supportate;
- Ottima predisposizione all’overclock;
- Software di gestione proprietario (TuneIT) completo ed intuitivo.
Contro:
- Nulla da segnalare.