Recensione e test di NVIDIA GeForce GTX TITAN X: battere i bambini. Recensione dell'adattatore video NVIDIA TITAN X: modalità Large Pascal Temperature della scheda video

Nvidia Geforce GTX Titan X

Il più potente acceleratore a processore singolo

  • Parte 2 - Introduzione pratica

A causa della ricezione tardiva di un campione di prova del nuovo acceleratore (e del relativo software), nonché della partecipazione del nostro autore Alexei Berillo al lavoro di GTC, le parti di questa recensione dedicate all'architettura del nuovo Il prodotto Nvidia e l'analisi dei test sintetici verranno rilasciati in seguito (tra una settimana circa). E ora presentiamo un materiale che introduce i lettori alle funzionalità della scheda video, nonché ai risultati dei test di gioco.

Dispositivi)



Nvidia Geforce GTX Titan X 12288 MB GDDR5 a 384 bit PCI-E
ParametroSignificatoValore nominale (riferimento)
GPUGeforce GTX Titan X (GM200)
InterfacciaPCI Express x16
Frequenza GPU (ROP), MHz1000—1075 1000—1075
Frequenza di memoria (fisica (effettiva)), MHz1750 (7000) 1750 (7000)
Larghezza del bus di memoria, bit384
Il numero di unità di calcolo nella GPU / frequenza di blocco, MHz24/1000—1075 24/1000—1075
Numero di operazioni (ALU) per blocco128
Numero totale di operazioni (ALU)3072
Unità di trama (BLF / TLF / ANIS)192
Unità ROP96
Dimensioni, mm270 × 100 × 35270 × 100 × 35
Il numero di slot nell'unità di sistema occupati dalla scheda video2 2
Colore PCBNeroNero
Consumo energetico (picco in 3D / in modalità 2D / in modalità "sleep"), W257/98/14 257/98/14
Livello di rumore (in modalità 2D / in modalità 2D (visualizzazione video) / in modalità 3D massimo), dBA20/21/29,5
Jack di uscita1 × DVI (Dual-Link / HDMI), 1 × HDMI 2.0, 3 × DisplayPort 1.2
Supporto multiprocessoreSLI
Numero massimo di ricevitori/monitor per la visualizzazione simultanea delle immagini4 4
Potenza aggiuntiva: numero di connettori a 8 pin1 1
Alimentazione ausiliaria: numero di connettori a 6 pin1 1
Risoluzione 2D massima: DP / HDMI / DVI Dual-Link / DVI Single-Link
Risoluzione 3D massima: DP / HDMI / DVI Dual-Link / DVI Single-Link3840 × 2400/3840 × 2400/2560 × 1600/1920 × 1200

Dotato di memoria locale

La scheda dispone di 12288 MB di SDRAM GDDR5 situata in 24 chip da 4 Gbit (12 su ciascun lato del PCB).

Abbiamo utilizzato esempi di SDK Microsoft e AMD, nonché il programma demo Nvidia per i nostri benchmark sintetici DirectX 11. Il primo è HDRToneMappingCS11.exe e NBodyGravityCS11.exe di DirectX SDK (febbraio 2010). Abbiamo anche preso applicazioni da entrambi i produttori di chip video: Nvidia e AMD. I campioni DetailTessellation11 e PNTriangles11 sono stati presi da ATI Radeon SDK (sono anche in DirectX SDK). Inoltre, è stato utilizzato il programma demo di Nvidia, Realistic Water Terrain, noto anche come Island11.

Sono stati effettuati test sintetici sulle seguenti schede video:

  • Geforce GTX Titan X GTX Titan X)
  • Geforce GTX Titan Z con parametri standard (abbreviato GTX Titan Z)
  • Geforce GTX 980 con parametri standard (abbreviato GTX 980)
  • Radeon R9 295X2 con parametri standard (abbreviato R9 295X2)
  • Radeon R9 290X con parametri standard (abbreviato R9 290X)

Per analizzare le prestazioni del nuovo modello di scheda video Geforce GTX Titan X, sono state scelte queste soluzioni per i seguenti motivi. La Geforce GTX 980 si basa sulla GPU della stessa architettura Maxwell, ma a un livello inferiore - la GM204, e sarà molto interessante per noi valutare cosa ha causato la complicazione del chip al GM200. Bene, la doppia GPU Geforce GTX Titan Z è solo presa come linea guida, come la scheda video Nvidia più produttiva basata su una coppia di chip GK110 della precedente architettura Kepler.

Abbiamo anche scelto due schede video della rivale AMD per il nostro confronto. Sono molto diversi in linea di principio, sebbene siano basati sulle stesse GPU Hawaii: hanno solo un numero diverso di GPU sulle schede e differiscono per posizionamento e prezzo. La Geforce GTX Titan X non ha rivali di prezzo, quindi abbiamo preso la scheda video dual-GPU più potente, la Radeon R9 295X2, anche se un confronto del genere non sarà molto interessante dal punto di vista tecnico. Per quest'ultimo, viene presa la scheda video a chip singolo più veloce di un concorrente: la Radeon R9 290X, anche se è stata rilasciata troppo tempo fa e si basa su una GPU di complessità nettamente inferiore. Ma semplicemente non c'è altra scelta tra le soluzioni AMD.

Direct3D 10: test dei pixel shader per PS 4.0 (texture, loop)

Abbiamo abbandonato i test DirectX 9 obsoleti, poiché soluzioni ultra potenti come la Geforce GTX Titan X mostrano scarsi risultati, essendo sempre limitati dalla larghezza di banda della memoria, dal tasso di riempimento o dalle texture. Per non parlare del fatto che le schede video dual-GPU non funzionano sempre correttamente in tali applicazioni, e ne abbiamo due.

La seconda versione di RightMark3D include due già noti test PS 3.0 per Direct3D 9, che sono stati riscritti per DirectX 10, nonché altri due nuovi test. La prima coppia aggiunge la possibilità di abilitare l'auto-ombreggiatura e il sovracampionamento dello shader, che aumenta ulteriormente il carico sui chip video.

Questi test misurano le prestazioni dell'esecuzione di pixel shader con loop con un numero elevato di campioni di texture (nella modalità più pesante, fino a diverse centinaia di campioni per pixel) e un carico ALU relativamente basso. In altre parole, misurano la frequenza di campionamento della trama e l'efficienza di ramificazione in un pixel shader.

Il primo test del pixel shader sarà Fur. Con le impostazioni più basse, usa da 15 a 30 campioni di texture dalla mappa dell'altezza e due campioni dalla texture principale. Dettagli effetto - La modalità "High" aumenta il numero di campioni a 40–80, consentendo il supercampionamento "shader" - fino a 60–120 campioni e la modalità "High", insieme a SSAA, ha una "gravità" massima - da 160 a 320 campioni dalla mappa dell'altezza.

Controlliamo prima le modalità senza sovracampionamento abilitato, sono relativamente semplici e il rapporto tra i risultati nelle modalità "Basso" e "Alto" dovrebbe essere approssimativamente lo stesso.

Le prestazioni in questo test dipendono dal numero e dall'efficienza delle TMU, nonché dall'efficienza dell'esecuzione di programmi complessi. E nella variante senza supercampionamento, anche il tasso di riempimento effettivo e la larghezza di banda della memoria hanno un ulteriore effetto sulle prestazioni. I risultati a livello di dettaglio "Alto" si ottengono fino a una volta e mezza inferiori rispetto a "Basso".

Nei compiti di rendering procedurale della pelliccia con un gran numero di fetch di texture, con il rilascio di chip video basati sull'architettura GCN, AMD ha da tempo preso la leadership. Sono le schede Radeon le migliori in questi confronti fino ad oggi, il che indica che sono più efficienti nell'esecuzione di questi programmi. Questa conclusione è confermata dal confronto odierno: la scheda video Nvidia che stiamo considerando ha perso anche contro l'obsoleta Radeon R9 290X a chip singolo, per non parlare del più vicino concorrente di prezzo di AMD.

Nel primo test Direct3D 10, la nuova scheda video Geforce GTX Titan X si è rivelata leggermente più veloce della sorella minore su un chip della stessa architettura sotto forma di una GTX 980, ma il ritardo di quest'ultima è piccolo - 9 -12%. Questo risultato può essere spiegato dalla velocità di texturing notevolmente inferiore della GTX 980, ed è in ritardo in altri parametri, sebbene il problema non riguardi chiaramente le prestazioni delle ALU. La doppia GPU Titan Z è più veloce, ma non così veloce come la Radeon R9 295X2.

Diamo un'occhiata al risultato dello stesso test, ma con il supersampling “shader” abilitato, che quadruplica il lavoro: in una situazione del genere, qualcosa dovrebbe cambiare, e la banda di memoria con fill rate avrà un effetto minore:

In condizioni difficili, il nuovo modello Geforce GTX Titan X è già più notevolmente avanti rispetto al modello più giovane della stessa generazione - GTX 980, essendo più veloce di un discreto 33-39%, che è molto più vicino alla differenza teorica tra loro. E il divario con i concorrenti sotto forma di Radeon R9 295X2 e R9 290X è diminuito: il nuovo prodotto di Nvidia ha quasi raggiunto la Radeon a chip singolo. Tuttavia, la doppia GPU è rimasta molto più avanti, perché i chip AMD preferiscono i calcoli per pixel e sono molto potenti in tali calcoli.

Il prossimo test DX10 misura le prestazioni di pixel shader complessi con loop con un gran numero di campioni di texture e si chiama Steep Parallax Mapping. Con impostazioni basse, usa da 10 a 50 campioni di texture dalla mappa dell'altezza e tre campioni dalle texture principali. Quando si attiva la modalità pesante con l'ombreggiatura automatica, il numero di campioni raddoppia e il supercampionamento aumenta questo numero quattro volte. La modalità di test più difficile con sovracampionamento e ombreggiatura automatica seleziona da 80 a 400 valori di trama, ovvero otto volte di più rispetto alla modalità semplice. Per prima cosa controlliamo le opzioni semplici senza sovracampionamento:

Il secondo test di pixel-shader Direct3D 10 è più interessante da un punto di vista pratico, poiché le varietà di mappatura della parallasse sono ampiamente utilizzate nei giochi e opzioni pesanti come la mappatura della parallasse ripida sono state a lungo utilizzate in molti progetti, ad esempio nei giochi di la serie Crysis, Lost Planet e molte altre. Inoltre, nel nostro test, oltre al sovracampionamento, puoi abilitare l'ombreggiatura automatica, che raddoppia il carico sul chip video: questa modalità è chiamata "Alta".

Il diagramma è generalmente simile al precedente, anche senza supersampling abilitato, e questa volta la nuova Geforce GTX Titan X si è rivelata un po' più vicina alla GTX Titan Z, perdendo non tanto per una scheda dual-GPU basata su un coppia di GPU Kepler. In condizioni diverse, il nuovo prodotto è del 14-19% in più rispetto al precedente modello di fascia alta dell'attuale generazione di Nvidia e, anche se lo confrontiamo con le schede video AMD, qualcosa è cambiato: in questo caso, la nuova GTX Titan X è leggermente inferiore alla Radeon R9 290X. Il due chip R9 295X2, tuttavia, è molto più avanti di tutti. Vediamo cosa cambierà l'inclusione del supercampionamento:

Quando sono abilitati il ​​supersampling e il self-shadowing, il compito diventa più difficile; abilitare due opzioni contemporaneamente aumenta il carico sulle schede di quasi otto volte, causando un grave calo delle prestazioni. La differenza tra gli indicatori di velocità delle schede video testate è leggermente cambiata, sebbene l'inclusione del supercampionamento abbia un effetto minore rispetto al caso precedente.

Le soluzioni grafiche AMD Radeon si comportano in modo più efficiente in questo test D3D10 pixel shader rispetto alle schede Geforce concorrenti, ma il nuovo chip GM200 cambia la situazione in meglio: Geforce GTX Titan X su un chip con architettura Maxwell supera la Radeon R9 290X in tutte le condizioni (tuttavia, in base su una GPU notevolmente meno complessa). La soluzione dual-GPU basata sulla coppia Hawaii è rimasta leader, ma rispetto ad altre soluzioni Nvidia il nuovo prodotto non è male. Ha mostrato velocità quasi alla pari con la doppia GPU Geforce GTX Titan Z e ha superato la Geforce GTX 980 del 28-33%.

Direct3D 10: benchmark dei pixel shader di PS 4.0 (calcolo)

Il prossimo paio di test di pixel shader contengono il numero minimo di recuperi di texture per ridurre l'impatto delle prestazioni TMU. Usano un gran numero di operazioni aritmetiche e misurano con precisione le prestazioni matematiche dei chip video, la velocità di esecuzione delle istruzioni aritmetiche in un pixel shader.

Il primo test di matematica è Mineral. Questo è un test di texture procedurale complesso che utilizza solo due campioni di dati di texture e 65 istruzioni come sin e cos.

I risultati dei test matematici estremi corrispondono molto spesso alla differenza di frequenze e al numero di unità di calcolo, ma solo approssimativamente, poiché i risultati sono influenzati dalla diversa efficienza del loro utilizzo in compiti specifici, dall'ottimizzazione del driver e dall'ultima frequenza e sistemi di controllo dell'alimentazione e persino l'enfasi sulla larghezza di banda della memoria. ... Nel caso del test Mineral, la nuova Geforce GTX Titan X è solo il 10% più veloce della GTX 980 basata sul chip GM204 della stessa generazione, e la doppia GPU GTX Titan Z non è stata così veloce in questo test - c'è è chiaramente qualcosa che impedisce alle schede Nvidia di rivelare ...

Confrontare la Geforce GTX Titan X con le schede concorrenti di AMD non sarebbe così frustrante se le GPU della R9 290X e della Titan X fossero simili per complessità. Ma il GM200 è molto più grande delle Hawaii e la sua piccola vittoria è naturale. L'aggiornamento dell'architettura di Nvidia da Kepler a Maxwell ha avvicinato i nuovi chip alle soluzioni concorrenti di AMD in tali test. Ma anche la più economica soluzione dual-GPU Radeon R9 295X2 è notevolmente più veloce.

Considera il secondo test di calcolo dello shader chiamato Fire. È più pesante per ALU, e c'è solo un recupero della trama in esso, e il numero di istruzioni come sin e cos è raddoppiato, a 130. Vediamo cosa è cambiato con l'aumento del carico:

Nel secondo test di matematica di RigthMark, vediamo risultati diversi delle schede video l'una rispetto all'altra. Quindi, la nuova Geforce GTX Titan X è già più forte (del 20%) davanti alla GTX 980 su un chip della stessa architettura grafica e la doppia GPU Geforce è molto vicina al nuovo prodotto: Maxwell gestisce molto le attività di calcolo meglio di Keplero.

La Radeon R9 290X è rimasta indietro, ma come abbiamo già scritto, la GPU Hawaii è notevolmente più semplice della GM200 e questa differenza è logica. Ma sebbene la Radeon R9 295X2 a due chip continui ad essere il leader nei test dei calcoli matematici, in generale, il nuovo chip video Nvidia si è comportato bene in tali compiti, sebbene non abbia raggiunto la differenza teorica con il GM204.

Direct3D 10: benchmark per lo shader geometrico

Il pacchetto RightMark3D 2.0 contiene due test della velocità degli shader geometrici, la prima versione si chiama "Galaxy", la tecnica è simile ai "point sprites" delle precedenti versioni di Direct3D. Anima un sistema di particelle su una GPU, uno shader geometrico crea quattro vertici da ogni punto, formando una particella. Algoritmi simili dovrebbero essere ampiamente utilizzati nei futuri giochi DirectX 10.

La modifica del bilanciamento nei test del geometry shader non influisce sul risultato del rendering finale, l'immagine finale è sempre esattamente la stessa, cambiano solo i metodi di elaborazione della scena. Il parametro "GS load" determina in quale degli shader vengono eseguiti i calcoli - in vertice o geometrico. Il numero di calcoli è sempre lo stesso.

Consideriamo la prima variante del test Galaxy, con calcoli in un vertex shader, per tre livelli di complessità geometrica:

Il rapporto tra velocità con diversa complessità geometrica delle scene è approssimativamente lo stesso per tutte le soluzioni, le prestazioni corrispondono al numero di punti, ad ogni passo il calo dell'FPS è vicino al doppio. Questo compito per le potenti schede video moderne è molto semplice e le sue prestazioni sono limitate dalla velocità di elaborazione della geometria e talvolta dalla larghezza di banda della memoria e/o dalla velocità di riempimento.

La differenza tra i risultati delle schede video basate su chip Nvidia e AMD è solitamente a favore delle soluzioni dell'azienda californiana, ed è dovuta alle differenze nelle pipeline geometriche dei chip di queste aziende. In questo caso, i chip video Nvidia di fascia alta hanno molte unità di elaborazione della geometria, quindi il guadagno è ovvio. Nei test di geometria, le schede Geforce sono sempre più competitive delle schede Radeon.

La nuova Geforce GTX Titan X è leggermente indietro rispetto alla generazione precedente con doppia GPU GTX Titan Z, ma la GTX 980 supera la GTX 980 del 12-25%. Le schede video Radeon mostrano risultati notevolmente diversi, dal momento che la R9 295X2 si basa su una coppia di GPU e solo lei può competere con la novità in questo test, e la Radeon R9 290X è diventata un'estranea. Vediamo come cambierà la situazione durante il trasferimento di parte dei calcoli allo shader geometrico:

Quando il carico è cambiato in questo test, i numeri sono leggermente cambiati per le schede AMD e per le soluzioni Nvidia. E questo non cambia davvero nulla. In questo test sugli shader geometrici, le schede video reagiscono male ai cambiamenti nel parametro di carico GS, che è responsabile del trasferimento di parte dei calcoli allo shader geometrico, quindi le conclusioni rimangono le stesse.

Sfortunatamente, "Hyperlight" è il secondo test di shader di geometria che dimostra l'uso di diverse tecniche contemporaneamente: istanze, output di flusso, caricamento del buffer, che utilizza la creazione di geometria dinamica disegnando in due buffer, nonché una nuova funzionalità Direct3D 10 - flusso output, su tutte le moderne schede grafiche di AMD semplicemente non funzionano. Ad un certo punto, un altro aggiornamento dei driver Catalyst ha portato al fatto che questo test ha smesso di funzionare sulle schede di questa azienda e questo non è stato risolto per diversi anni.

Direct3D 10: velocità di recupero delle trame dai vertex shader

I test Vertex Texture Fetch misurano la velocità di un gran numero di recuperi di texture dal vertex shader. I test sono simili, infatti, quindi il rapporto tra i risultati delle carte nei test "Earth" e "Waves" dovrebbe essere approssimativamente lo stesso. Entrambi i test utilizzano la mappatura dello spostamento basata sui dati di recupero della trama, l'unica differenza significativa è che il test Waves utilizza transizioni condizionali, mentre il test Earth no.

Considera il primo test "Earth", prima nella modalità "Dettaglio effetto basso":

La nostra ricerca precedente ha mostrato che i risultati di questo test possono essere influenzati sia dal fill rate che dalla larghezza di banda della memoria, che è chiaramente visibile nei risultati delle schede Nvidia, specialmente nelle modalità semplici. La nuova scheda video di Nvidia in questo test dimostra la velocità chiaramente inferiore a quanto dovrebbe: tutte le schede Geforce si sono rivelate approssimativamente allo stesso livello, il che chiaramente non corrisponde alla teoria. In tutte le modalità, ovviamente si imbattono in qualcosa come la larghezza di banda della memoria. Tuttavia, anche la Radeon R9 295X2 non è due volte più veloce della R9 290X.

A proposito, la scheda a chip singolo di AMD questa volta si è rivelata più forte di tutte le schede di Nvidia in modalità facile e approssimativamente al loro livello in modalità pesante. Bene, la doppia GPU Radeon R9 295X2 è diventata di nuovo il leader del nostro confronto. Diamo un'occhiata alle prestazioni nello stesso test con un numero maggiore di recuperi di texture:

La situazione sul diagramma è leggermente cambiata, la soluzione a chip singolo di AMD in modalità pesanti ha perso significativamente più schede Geforce. La nuova Geforce GTX Titan X ha mostrato velocità fino al 14% più veloci della Geforce GTX 980 e ha superato la Radeon a GPU singola in tutte le modalità tranne che nelle più leggere grazie alla stessa attenzione su qualcosa. Se confrontiamo il nuovo prodotto con una soluzione dual-GPU di AMD, Titan X è stata in grado di combattere in modalità pesante, mostrando prestazioni simili, ma in ritardo in modalità leggera.

Consideriamo i risultati del secondo test di campioni di texture dai vertex shader. Il test Waves ha un numero inferiore di campioni, ma utilizza salti condizionali. Il numero di campioni di texture bilineari in questo caso è fino a 14 ("Dettaglio effetto basso") o fino a 24 ("Dettaglio effetto alto") per ciascun vertice. La complessità della geometria cambia allo stesso modo del test precedente.

I risultati nel secondo test di vertex texturing "Waves" non sono affatto simili a quelli che abbiamo visto nei diagrammi precedenti. Gli indicatori di velocità di tutte le GeForce in questo test si sono seriamente deteriorati e il nuovo modello Nvidia Geforce GTX Titan X mostra una velocità solo leggermente più veloce della GTX 980, in ritardo rispetto alla doppia GPU Titan Z. tutte le modalità. Consideriamo la seconda variante dello stesso problema:

Con la complicazione del compito nel secondo test di campionamento delle texture, la velocità di tutte le soluzioni è diminuita, ma le schede video Nvidia hanno sofferto di più, compreso il modello in questione. Nelle conclusioni, quasi nulla cambia, la nuova Geforce GTX Titan X è fino al 10-30% più veloce della GTX 980, in ritardo sia rispetto alla doppia GPU Titan Z che a entrambe le schede Radeon. La Radeon R9 295X2 si è rivelata molto avanti in questi test, e dal punto di vista teorico questo è semplicemente inspiegabile, fatta eccezione per un'ottimizzazione insufficiente da parte di Nvidia.

3DMark Vantage: benchmark delle funzionalità

I benchmark sintetici della suite 3DMark Vantage ci mostreranno cosa ci siamo persi in precedenza. I test delle funzionalità di questa suite di test hanno il supporto DirectX 10, sono ancora rilevanti e interessanti perché differiscono dai nostri. Analizzando i risultati dell'ultimo modello di scheda video Geforce GTX Titan X in questo pacchetto, trarremo alcune nuove e utili conclusioni che ci sono sfuggite nei test della famiglia di pacchetti RightMark.

Test di funzionalità 1: riempimento trama

Il primo test misura le prestazioni delle unità di recupero delle texture. Utilizzato per riempire un rettangolo con valori letti da una piccola trama utilizzando più coordinate di trama che cambiano ogni fotogramma.

L'efficienza delle schede video AMD e Nvidia nel test delle texture di Futuremark è piuttosto elevata e le cifre finali per i diversi modelli sono vicine ai corrispondenti parametri teorici. Quindi, la differenza di velocità tra GTX Titan X e GTX 980 si è rivelata del 38% a favore di una soluzione basata su GM200, che è vicina alla teoria, perché il nuovo prodotto ha una volta e mezza più TMU, ma funzionano a una frequenza inferiore. Naturalmente, il ritardo rispetto alla doppia GPU GTX Titan Z rimane, poiché le due GPU hanno un'elevata velocità di texturing.

Quando si tratta di confrontare la velocità di testurizzazione della nuova scheda video di fascia alta di Nvidia con soluzioni a prezzo simile di un concorrente, il nuovo prodotto è inferiore a un rivale a due GPU, che è un vicino condizionale nella nicchia di prezzo, ma supera la Radeon R9 290X, anche se non in modo troppo significativo. Tuttavia, le schede grafiche AMD fanno ancora un po' meglio con le texture.

Test funzionalità 2: riempimento colore

Il secondo compito è testare il tasso di riempimento. Utilizza un pixel shader molto semplice senza limiti di prestazioni. Il valore del colore interpolato viene scritto nel buffer fuori schermo (destinazione di rendering) utilizzando la fusione alfa. Viene utilizzato un buffer fuori schermo FP16 a 16 bit, che viene spesso utilizzato nei giochi che utilizzano il rendering HDR, quindi questo test è abbastanza tempestivo.

I numeri del secondo sottotest 3DMark Vantage mostrano le prestazioni delle unità ROP senza tenere conto della quantità di larghezza di banda della memoria video (il cosiddetto "tasso di riempimento effettivo") e il test misura le prestazioni ROP. La scheda Geforce GTX Titan X che stiamo recensendo è notevolmente avanti rispetto a entrambe le schede Nvidia, la GTX 980 e persino la GTX Titan Z, superando la scheda a chip singolo basata su GM204 di ben il 45% - il numero di ROP e la loro efficienza nella GPU superiore dell'architettura Maxwell è eccellente!

E se confrontiamo il tasso di riempimento della scena con la nuova scheda video Geforce GTX Titan X con schede video AMD, la scheda Nvidia che stiamo considerando in questo test mostra il miglior tasso di riempimento della scena anche rispetto alla più potente Radeon R9 dual-GPU 295X2, per non parlare della Radeon R9 290X considerevolmente in ritardo. Un gran numero di ROP e ottimizzazioni per l'efficienza di compressione dei dati del framebuffer hanno fatto il loro lavoro.

Test delle funzionalità 3: mappatura dell'occlusione di parallasse

Uno dei test di funzionalità più interessanti, poiché una tecnica simile è già utilizzata nei giochi. Disegna un quadrilatero (più precisamente, due triangoli) usando una tecnica speciale chiamata Parallax Occlusion Mapping, che simula una geometria complessa. Vengono utilizzati ray tracing e mappe di profondità ad alta risoluzione che richiedono molte risorse. Anche questa superficie viene ombreggiata utilizzando l'algoritmo di Strauss pesante. Questo è un test di un pixel shader molto complesso e pesante per GPU contenente numerose selezioni di texture per ray tracing, rami dinamici e calcoli di illuminazione complessi di Strauss.

Questo test del pacchetto 3DMark Vantage differisce dai precedenti in quanto i risultati in esso contenuti dipendono non solo dalla velocità dei calcoli matematici, dall'efficienza della ramificazione o dalla velocità del recupero della trama, ma da diversi parametri contemporaneamente. Per raggiungere l'alta velocità in questa attività, è importante il corretto bilanciamento della GPU, così come l'efficienza dell'esecuzione di shader complessi.

In questo caso, sono importanti sia le prestazioni matematiche che quelle delle texture, e in questo sintetico di 3DMark Vantage la nuova Geforce GTX Titan X è più di un terzo più veloce del modello basato sulla GPU della stessa architettura Maxwell. E anche la doppia GPU Kepler sotto forma di GTX Titan Z ha vinto meno del 10% rispetto al nuovo prodotto.

La scheda Nvidia di fascia alta a chip singolo in questo test ha mostrato risultati nettamente migliori rispetto alla Radeon R9 290X a un chip, ma entrambe sono decisamente inferiori al modello a due GPU Radeon R9 295X2. I processori grafici AMD funzionano in modo un po' più efficiente in questo compito rispetto ai chip Nvidia, mentre l'R9 295X2 ne ha due.

Test delle funzionalità 4: panno GPU

Il quarto test è interessante in quanto calcola le interazioni fisiche (imitazione tissutale) utilizzando un chip video. Viene utilizzata la simulazione dei vertici, utilizzando il lavoro combinato di vertex e geometry shader, con diversi passaggi. Usa lo stream out per trasferire i vertici da un passaggio di simulazione a un altro. Pertanto, vengono testate le prestazioni dell'esecuzione degli shader di vertice e geometria e la velocità di flusso in uscita.

La velocità di rendering in questo test dipende anche da diversi parametri contemporaneamente e i principali fattori di influenza dovrebbero essere le prestazioni di elaborazione della geometria e l'efficienza di esecuzione dello shader di geometria. Cioè, i punti di forza dei chip Nvidia dovrebbero essere manifestati, ma purtroppo abbiamo visto un risultato molto strano (abbiamo ricontrollato), la nuova scheda video Nvidia ha mostrato una velocità non molto elevata, per usare un eufemismo. Geforce GTX Titan X in questo sottotest ha mostrato il peggior risultato di tutte le soluzioni, in ritardo di quasi il 20% persino rispetto alla GTX 980!

Ebbene, il confronto con le schede Radeon in questo test è altrettanto sgradevole per un nuovo prodotto. Nonostante il numero teoricamente inferiore di unità di esecuzione geometrica e il ritardo delle prestazioni geometriche dei chip AMD rispetto alle soluzioni concorrenti, entrambe le schede Radeon si comportano in modo molto efficiente in questo test e superano tutte e tre le schede Geforce presentate a confronto. Ancora una volta, sembra una mancanza di ottimizzazione nei driver Nvidia per un'attività specifica.

Test delle funzionalità 5: particelle GPU

Test di simulazione fisica degli effetti basati su sistemi di particelle calcolati utilizzando un chip video. Viene utilizzata anche la simulazione dei vertici, ogni vertice rappresenta una singola particella. Lo streaming viene utilizzato per lo stesso scopo del test precedente. Vengono calcolate diverse centinaia di migliaia di particelle, tutte animate separatamente, e vengono calcolate anche le loro collisioni con la mappa dell'altezza.

Simile a uno dei test nel nostro RightMark3D 2.0, le particelle vengono renderizzate utilizzando uno shader geometrico, che crea quattro vertici da ciascun punto che formano una particella. Ma il test più di tutti carica le unità shader con i calcoli dei vertici, viene testato anche lo streaming.

Nel secondo test "geometrico" di 3DMark Vantage, la situazione è cambiata notevolmente, questa volta tutte le Geforce mostrano già risultati più o meno normali, sebbene la Radeon dual-GPU rimanga ancora in testa. Il nuovo modello GTX Titan X è più veloce del 24% rispetto alla sorella GTX 980 ed è circa lo stesso in ritardo rispetto alla doppia GPU Titan Z sulla GPU della generazione precedente.

Il confronto della nuova Nvidia con le schede video concorrenti di AMD questa volta è più positivo: ha mostrato il risultato tra due schede di un'azienda rivale e si è rivelato essere più vicino alla Radeon R9 295X2, che ha due GPU. La novità è significativamente più avanti della Radeon R9 290X e questo ci mostra chiaramente come possono essere diversi due test apparentemente simili: simulare tessuti e simulare un sistema di particelle.

Test delle funzionalità 6: Perlin Noise

L'ultimo test delle funzionalità del pacchetto Vantage è un test matematicamente intensivo del chip video, calcola diverse ottave dell'algoritmo del rumore Perlin in un pixel shader. Ogni canale di colore utilizza la propria funzione di rumore per un maggiore carico sul chip video. Il rumore di Perlin è un algoritmo standard spesso utilizzato nella texturizzazione procedurale e utilizza molta matematica.

In questo caso, le prestazioni delle soluzioni non corrispondono del tutto alla teoria, sebbene si avvicini a quanto visto in test simili. Nel test matematico della suite Futuremark, che mostra le prestazioni di picco dei chip video in compiti estremi, vediamo una diversa distribuzione dei risultati rispetto a test simili della nostra suite di test.

Sappiamo da molto tempo che le GPU AMD con architettura GCN riescono ancora a gestire tali compiti meglio delle soluzioni concorrenti, specialmente nei casi in cui viene eseguita una "matematica" intensiva. Ma il nuovo modello di punta di Nvidia si basa su un grande chip GM200, e quindi la Geforce GTX Titan X in questo test ha mostrato un risultato notevolmente superiore alla Radeon R9 290X.

Se confrontiamo il nuovo prodotto con il miglior modello della famiglia Geforce GTX 900, in questo test la differenza tra loro è stata di quasi il 40%, a favore della scheda video che stiamo considerando oggi, ovviamente. Questo è anche vicino alla differenza teorica. Non un brutto risultato per la Titan X, solo la doppia GPU Radeon R9 295X2 è avanti, e molto avanti.

Direct3D 11: Calcola shader

Abbiamo utilizzato esempi di SDK e demo di Microsoft, Nvidia e AMD per testare la soluzione top di gamma di Nvidia rilasciata di recente su attività che utilizzano le funzionalità di DirectX 11 come tessellation e compute shader.

Per prima cosa, esamineremo i benchmark utilizzando gli shader di calcolo. Il loro aspetto è una delle innovazioni più importanti nelle ultime versioni dell'API DX, sono già utilizzati nei giochi moderni per svolgere varie attività: post-elaborazione, simulazioni, ecc. Il primo test mostra un esempio di rendering HDR con mappatura dei toni dall'SDK DirectX, con post-elaborazione utilizzando pixel e compute shader.

La velocità di calcolo nei computational e nei pixel shader è approssimativamente la stessa per tutte le schede AMD e Nvidia, le differenze sono state osservate solo nelle schede video basate su GPU di architetture precedenti. A giudicare dai nostri test precedenti, i risultati in un'attività spesso dipendono non tanto dalla potenza matematica e dall'efficienza computazionale quanto da altri fattori, come la larghezza di banda della memoria.

In questo caso, la nuova scheda video di fascia alta è più veloce delle versioni a singola GPU Geforce GTX 980 e Radeon R9 290X, ma è in ritardo rispetto alla doppia GPU R9 295X2, il che è comprensibile, perché ha la potenza di una coppia di R9 290X. Se confrontiamo il nuovo prodotto con la Geforce GTX 980, il consiglio di amministrazione dell'azienda californiana considerata oggi è più veloce del 34-36%, esattamente secondo la teoria.

Il secondo test dello shader computazionale, anch'esso tratto da Microsoft DirectX SDK, mostra il problema della gravità computazionale a N-corpi, una simulazione di un sistema di particelle dinamico su cui agiscono forze fisiche come la gravità.

In questo test, l'enfasi è più spesso osservata sulla velocità di esecuzione di calcoli matematici complessi, sull'elaborazione della geometria e sull'efficienza dell'esecuzione del codice con i rami. E in questo test DX11, l'equilibrio delle forze tra le soluzioni di due diverse aziende si è rivelato completamente diverso, ovviamente a favore delle schede video Geforce.

Tuttavia, anche i risultati di un paio di soluzioni Nvidia su chip diversi sono strani: Geforce GTX Titan X e GTX 980 sono quasi uguali, sono separati solo dal 5% della differenza di prestazioni. Il rendering a doppia GPU non funziona in questo compito, quindi i rivali (modelli Radeon a GPU singola e doppia GPU) hanno approssimativamente la stessa velocità. Bene, la GTX Titan X è tre volte davanti a loro. Sembra che questo compito sia calcolato in modo molto più efficiente sulle GPU dell'architettura Maxwell, che abbiamo notato in precedenza.

Direct3D 11: Prestazioni di tassellazione

Gli shader di calcolo sono molto importanti, ma un'altra importante innovazione in Direct3D 11 è la tassellatura hardware. L'abbiamo esaminato in dettaglio nel nostro articolo teorico sulla Nvidia GF100. La tassellazione è stata a lungo utilizzata nei giochi DX11 come STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 e altri. Alcuni di loro usano la tassellatura per i modelli dei personaggi, mentre altri usano la tassellatura per simulare una superficie d'acqua o un paesaggio realistici.

Esistono diversi schemi per partizionare le primitive grafiche (tassellation). Ad esempio tassellatura Phong, triangoli PN, suddivisione Catmull-Clark. Quindi, lo schema di partizionamento dei triangoli PN viene utilizzato in STALKER: Call of Pripyat e in Metro 2033 - Tessellazione di Phong. Questi metodi vengono introdotti in modo relativamente rapido e semplice nel processo di sviluppo del gioco e nei motori esistenti, e quindi sono diventati popolari.

Il primo test di tessellation sarà l'esempio di Detail Tassellation dell'ATI Radeon SDK. Implementa non solo la tessellation, ma anche due diverse tecniche di elaborazione per pixel: semplici mappe normali di sovrapposizione e mappatura di occlusione di parallasse. Bene, confrontiamo le soluzioni DX11 di AMD e Nvidia in condizioni diverse:

Nel semplice test di bumpmapping, la velocità delle schede non è molto importante, poiché questo compito è diventato a lungo troppo facile e le prestazioni al suo interno sono limitate dalla larghezza di banda della memoria o dal tasso di riempimento. L'eroe della recensione di oggi è del 23% avanti rispetto al precedente modello top di gamma Geforce GTX 980 basato sul chip GM204 ed è leggermente inferiore al concorrente sotto forma di Radeon R9 290X. La versione a doppio chip è anche leggermente più veloce.

Nel secondo sottotest con calcoli pixel per pixel più complessi, il nuovo prodotto è già diventato il 34% più veloce della Geforce GTX 980, che è più vicino alla differenza teorica tra loro. Ma Titan X questa volta è già un po' più veloce di un concorrente condizionale a chip singolo basato su una singola Hawaii. Poiché i due chip della Radeon R9 295X2 funzionano perfettamente, questo compito viene eseguito ancora più velocemente. Sebbene l'efficienza dell'esecuzione di calcoli matematici nei pixel shader sia maggiore per i chip dell'architettura GCN, il rilascio di soluzioni dell'architettura Maxwell ha migliorato la posizione delle soluzioni Nvidia.

Nel sottotest utilizzando un leggero grado di tessellation, la scheda Nvidia recentemente annunciata è di nuovo solo un quarto più veloce della Geforce GTX 980 - forse la velocità è limitata dalla larghezza di banda della memoria, poiché le texture non hanno quasi alcun effetto in questo test. Se confrontiamo il nuovo prodotto con le schede AMD in questo sottotest, la scheda Nvidia è di nuovo inferiore a entrambe le schede Radeon, poiché in questo test di tassellatura il partizionamento dei triangoli è abbastanza moderato e le prestazioni geometriche non limitano la velocità di rendering complessiva.

Il secondo test delle prestazioni di tassellatura sarà un altro esempio per gli sviluppatori 3D di ATI Radeon SDK - PN Triangles. In realtà, entrambi gli esempi sono inclusi anche nel DX SDK, quindi siamo sicuri che gli sviluppatori di giochi creeranno il loro codice sulla base di loro. Abbiamo testato questo esempio con un diverso fattore di tassellatura per vedere quanto una modifica avrebbe avuto un effetto sulle prestazioni complessive.

In questo test viene utilizzata una geometria più complessa, pertanto un confronto della potenza geometrica di varie soluzioni porta a conclusioni diverse. Le soluzioni moderne presentate nel materiale sopportano abbastanza bene carichi geometrici leggeri e medi, mostrando un'elevata velocità. Ma sebbene in condizioni di luce le GPU Hawaii nella Radeon R9 290X e R9 295X2 nel numero di uno e due pezzi funzionino bene, in condizioni pesanti le schede Nvidia vanno molto avanti. Quindi, nelle modalità più difficili, la Geforce GTX Titan X presentata oggi mostra una velocità notevolmente migliore rispetto alla doppia GPU Radeon.

Per quanto riguarda il confronto tra le schede Nvidia basate su chip GM200 e GM204, il modello Geforce GTX Titan X in esame oggi aumenta il suo vantaggio con un aumento del carico geometrico, poiché in modalità light tutto dipende dalla larghezza di banda della memoria. Di conseguenza, il nuovo prodotto supera la scheda Geforce GTX 980, a seconda della complessità della modalità, fino al 31%.

Diamo un'occhiata ai risultati di un altro test, il programma demo Nvidia Realistic Water Terrain, noto anche come Island. Questa demo utilizza la tassellatura e la mappatura dello spostamento per rendere realistiche le superfici oceaniche e del terreno.

Il test dell'isola non è un test puramente sintetico per misurare esclusivamente le prestazioni geometriche della GPU, poiché contiene pixel complessi e shader computazionali, inclusi, e tale carico è più vicino ai giochi reali in cui vengono utilizzate tutte le unità GPU, e non solo quelli geometrici, come nelle precedenti prove di geometria. Sebbene il principale sia ancora il carico sulle unità di elaborazione della geometria, anche la stessa larghezza di banda di memoria, ad esempio, può influire.

Testiamo tutte le schede video con quattro diversi rapporti di tessellation - in questo caso, l'impostazione si chiama Dynamic Tassellation LOD. Al primo fattore di partizionamento dei triangoli, la velocità non è limitata dalle prestazioni delle unità geometriche e le schede video Radeon mostrano un risultato abbastanza elevato, in particolare la dual-GPU R9 295X2, superando addirittura il risultato dell'annunciata scheda Geforce GTX Titan X. , ma già nelle fasi successive del carico geometrico, le prestazioni delle schede Radeon diminuiscono e le soluzioni Nvidia escono in vantaggio.

Il vantaggio della nuova scheda Nvidia basata sul chip video GM200 rispetto ai suoi concorrenti in tali test è già abbastanza decente e persino multiplo. Se confrontiamo Geforce GTX Titan X con GTX 980, la differenza tra le loro prestazioni raggiunge il 37-42%, il che è perfettamente spiegato dalla teoria e corrisponde esattamente ad esso. Le GPU Maxwell sono notevolmente più efficienti in modalità di carico misto, passando rapidamente dalle attività grafiche a quelle di elaborazione e viceversa, e la Titan X è molto più veloce anche della doppia GPU Radeon R9 295X2 in questo test.

Dopo aver analizzato i risultati dei test sintetici della nuova scheda video Nvidia Geforce GTX Titan X basata sulla nuova GPU GM200 di fascia alta, oltre a considerare i risultati di altri modelli di schede video di entrambi i produttori di GPU discreti, possiamo concludere che il video la scheda in esame dovrebbe diventare la più veloce sul mercato, in competizione con la più potente scheda video dual-GPU di AMD. In generale, questo è un buon seguace del modello Geforce GTX Titan Black, il più potente chip singolo.

La nuova scheda video di Nvidia mostra risultati abbastanza buoni in sintetico - in molti test, anche se non in tutti. Radeon e Geforce hanno tradizionalmente punti di forza diversi. In un gran numero di test, i due processori grafici del modello Radeon R9 295X2 si sono rivelati più veloci, anche grazie alla maggiore larghezza di banda della memoria finale e alla velocità di texturing con esecuzione molto efficiente delle attività computazionali. Ma in altri casi, la GPU di punta dell'architettura Maxwell si fa sentire, specialmente nei test di geometria e negli esempi con tessellation.

Tuttavia, nelle applicazioni di gioco reali tutto sarà un po' diverso, rispetto ai "sintetici" e la Geforce GTX Titan X dovrebbe mostrare una velocità notevolmente superiore alla Geforce GTX 980 a un chip e ancora di più alla Radeon R9 290X. Ed è difficile confrontare il nuovo prodotto con una Radeon R9 295X2 a due chip: i sistemi basati su due o più GPU hanno le loro caratteristiche spiacevoli, sebbene forniscano un aumento del frame rate medio con un'adeguata ottimizzazione.

Ma le caratteristiche architettoniche e le funzionalità sono chiaramente a favore della soluzione Nvidia premium. Geforce GTX Titan X consuma molta meno energia rispetto alla stessa Radeon R9 295X2 e in termini di efficienza energetica, il nuovo modello di Nvidia è molto forte: questa è una caratteristica distintiva dell'architettura Maxwell. Non dimentichiamoci delle maggiori funzionalità della nuova Nvidia: c'è il supporto al Feature Level 12.1 in DirectX 12, l'accelerazione hardware VXGI, un nuovo metodo di anti-aliasing MFAA e altre tecnologie. Abbiamo già parlato del punto di vista del mercato nella prima parte: nel segmento d'élite, non dipende tanto dal prezzo. La cosa principale è che la soluzione è il più funzionale e produttiva possibile nelle applicazioni di gioco. Semplicemente: era il migliore in tutto.

Proprio per valutare la velocità del nuovo elemento nei giochi, nella prossima parte del nostro materiale determineremo le prestazioni della Geforce GTX Titan X nella nostra serie di progetti di gioco e le confronteremo con gli indicatori dei concorrenti, inclusa la valutazione del ragionevolezza del prezzo al dettaglio del nuovo oggetto dal punto di vista degli appassionati, e scopriremo anche quanto sia più veloce della Geforce GTX 980 già nei giochi.

Monitor Asus ProArt PA249Q per computer da lavoro fornito da Asustek La tastiera desktop Cougar 700K è fornita da Puma

Immagine precedenteImmagine successiva

L'acceleratore video GeForce GTX Titan X è attualmente (aprile 2015) il più tecnologicamente avanzato al mondo. Ha prestazioni senza precedenti senza precedenti al mondo. La scheda grafica Titan X è progettata per giocatori professionisti ed esperti e per appassionati di PC. La scheda è basata sulla nuova architettura Maxwell di NVIDIA, che offre il doppio delle prestazioni e un'incredibile efficienza energetica della precedente generazione di GPU Kepler.

La scheda grafica GeForce GTX Titan X è dotata di una GPU GM200, che include assolutamente tutti i 3072 core di elaborazione CUDA, che è il valore massimo per la gamma GeForce GTX 900.

L'innovativa GPU GM200 ha una serie di straordinarie tecnologie di gioco ereditate dalle precedenti generazioni di acceleratori e sviluppate da zero dagli ingegneri NVIDIA. Insieme alle note tecnologie per il supporto dei display 3D 3D Vision, alla sincronizzazione adattiva G-Sync e agli algoritmi anti-aliasing MSAA e TXAA, la famiglia GeForce GTX 900 dispone ora della tecnologia multi-frame anti-aliasing (MFAA), che garantisce una performance aumento del 30%; metodo anti-aliasing che utilizza DSR ad altissima risoluzione; e Voxel Global Illumination (VXGI), che accelera gli effetti di luce dinamici per un gameplay cinematografico coinvolgente.

Questo acceleratore, come le altre schede della scaletta, ha ricevuto la tecnologia di overclocking automatico aggiornata NVIDIA GPU Boost 2.0, che monitora il funzionamento della scheda video, gestendo in modo ancora più efficiente la temperatura della GPU, aumentando la frequenza e la tensione di clock del processore, che consente di per ottenere le massime prestazioni della GPU.

Il prodotto incorpora la tecnologia NVIDIA Adaptive Vertical Sync. Questa tecnologia è abilitata a frame rate elevati per eliminare lo strappo e disabilitata a frame rate bassi per ridurre al minimo il jitter dei fotogrammi.

Lo sviluppatore garantisce il pieno funzionamento della scheda video con la nuova API Microsoft DirectX 12, che può ridurre notevolmente il carico sul processore centrale e accelerare il rendering delle immagini.

Nel complesso, il nuovo acceleratore è la soluzione perfetta per i giochi in UHD 4K ad altissima definizione con impostazioni di massima qualità. Fornisce inoltre prestazioni sufficienti nei sistemi di realtà virtuale sempre più diffusi.

Dignità

Massime prestazioni La soluzione per gli appassionati di prestazioni senza precedenti ti consente di giocare a tutti i moderni giochi per PC con risoluzione 4K e la massima qualità delle immagini. Ha un margine significativo per i giochi futuri. Supporto SLI La funzione di raggruppamento consente di creare configurazioni a doppia, tripla e quadrupla (quando si utilizza una scheda madre compatibile con SLI) per migliorare ulteriormente le prestazioni di gioco. Collegamento di display aggiuntivi Consente l'uso simultaneo di Dual-link DVI, HDMI e DisplayPort per configurazioni multi-monitor con un massimo di 4 display. Buon overclock Grazie alla comprovata tecnologia GPU a 28 nm e all'elevata efficienza energetica dell'architettura Maxwell, la scheda grafica GeForce GTX Titan X ha eccellenti capacità di overclock della GPU. Gli overclocker professionisti sono in grado di overcloccare la GPU di questo acceleratore di 2 volte. Buone prestazioni video Accelerazione completa della decodifica per tutti i principali formati video, sia DVD / Blu-ray che Internet, supporto picture-in-picture, supporto accelerazione CUDA / OpenCL / DirectX per codificatori ed editor video, decodifica hardware HEVC ... 3D Vision Stereo Ready La scheda ha prestazioni più che sufficienti per riprodurre in stereo completo nei giochi quando si utilizza il kit NVIDIA 3D Vision (è necessario un monitor compatibile). Supporto per l'accelerazione PhysX La GPU è abbastanza potente da rendere contemporaneamente grafica 3D ed effetti speciali aggiuntivi nei giochi abilitati per PhysX. Basso consumo energetico Grazie alla nuova architettura GPU, questo acceleratore video è estremamente efficiente dal punto di vista energetico. Di conseguenza, per il suo funzionamento è sufficiente un alimentatore più modesto (da 600 W) rispetto alla soluzione top di gamma della precedente generazione, l'acceleratore GeForce GTX Titan Z. Pronta per la realtà virtuale La scheda dispone della tecnologia VR Direct, che è appositamente progettato per funzionare con dispositivi di realtà virtuale. Lo sviluppo prevede l'utilizzo di più schede video in una configurazione SLI, include la tecnologia Asynchronous Warp, che riduce la latenza dell'immagine e regola rapidamente l'immagine in base alla rotazione della testa, e Auto Stereo, che aumenta la compatibilità dei giochi con dispositivi di realtà virtuale come l'Oculus Rift.

svantaggi

Prezzo elevato Il costo di oltre 1000 USD e limita in modo più significativo la cerchia degli acquirenti. Elevati requisiti di sistema Per ottenere il massimo dalla scheda, è desiderabile una configurazione PC "costosa", che includa una moderna scheda madre con supporto PCI Express 3.0, la CPU più performante, memoria DDR4 e SSD PCI-e per l'esecuzione di giochi.
Chipset

Key Takeaway: la GeForce GTX TITAN X è la scheda grafica di gioco single-GPU più veloce di oggi. Le prestazioni della nuova ammiraglia NVIDIA sono sufficienti per farti sentire libero di goderti il ​​moderno intrattenimento 3D in Full HD e WQHD con le impostazioni grafiche più elevate. È vero, lo può fare anche la GeForce GTX 980. "Aspetta, e il 4K?" - chiederà il lettore. Sì, anche se ho chiamato l'articolo "First for Ultra HD", in termini di giochi moderni con impostazioni di massima qualità grafica, la GeForce GTX TITAN X mostra solo un livello di FPS relativamente giocabile. Tuttavia, questo è il miglior indicatore tra le schede video a chip singolo. Pertanto, per me personalmente, è la GeForce GTX TITAN X la prima scheda video davvero in grado di soddisfare l'esigenza di un giocatore che vuole conquistare spazi virtuali a una risoluzione così elevata. Lascia che in alcuni casi sia necessario approfondire le impostazioni. Ma già un paio di questi "titani" sono in grado di tenere a freno qualsiasi nextgen emergente. Se solo i driver e l'ottimizzazione non fallissero. Tuttavia, questo è un argomento per un articolo separato.

Sono 12 GB di memoria video che forniscono un ampio margine di sicurezza per la GeForce GTX TITAN X. Naturalmente, qualcuno noterà giustamente che un tale volume è eccessivo. Tuttavia, lo stesso Assassin's Creed Unity in risoluzione 4K, non al massimo delle impostazioni di qualità grafica, già "mangia" dalla scheda video 5-6 GB di memoria video. Cioè, quasi la metà. Ecco perché (e lo abbiamo visto chiaramente) anche i bundle super costosi di diversi acceleratori 3D possono avere un collo di bottiglia sotto forma di 4 GB GDDR5. Quindi, per giocare in Ultra HD, devi avere un po' di margine in questo momento.

Come sempre, il riferimento di NVIDIA si è dimostrato positivo. La scheda video ha un discreto potenziale di overclock. Il dispositivo di raffreddamento basato sull'evaporatore raffredda il chip da 250 watt in modo abbastanza efficiente. Funziona un po' rumoroso, ma abbastanza sopportabile.

Ovviamente, se NVIDIA avesse rilasciato questa scheda video a settembre dell'anno scorso (ma non per ~ 1000 dollari - nota dell'autore), l'effetto wow sarebbe risultato, secondo me, più forte. Tuttavia, dovremmo essere sorpresi dallo schema NVIDIA elaborato nel corso degli anni? Il prezzo è il fattore limitante più forte per l'acquisto di GeForce GTX TITAN X. Nel nostro Paese, che sta attraversando un'altra crisi economica, lo è ancora di più.

Alla fine, noterò solo che quelli "verdi" hanno alzato la barra delle prestazioni abbastanza in alto che il futuro flagship AMD (Radeon R9 390X?) Dovrà almeno raggiungere per ripristinare lo status quo. O per fare qualcosa di simile nelle prestazioni, ma molto più economico. D'accordo, sarà molto interessante seguirlo.

La scheda grafica NVIDIA GeForce GTX TITAN X vince il premio Editors' Choice.

La versione precedente della scheda video Elite NVIDIA GeForce GTX TITAN X 12 GBè stato rilasciato a marzo 2015 ed era basato sulla GPU GM200 dell'architettura Maxwell 2.0. A quel tempo, il nuovo prodotto si distingueva per una quantità colossale di memoria video per schede video da gioco, prestazioni e costo molto elevati ($ 999). Tuttavia, la brillante abilità della GeForce GTX TITAN X è svanita dopo tre mesi, quando al pubblico è stata presentata una GeForce GTX 980 Ti altrettanto veloce nei giochi a un prezzo molto più accettabile (649 dollari).

Sembra che NVIDIA abbia deciso di ripetere questo percorso di annunci nella linea delle migliori soluzioni grafiche, che può essere espresso dalla sequenza "GeForce GTX 980 -> GeForce TITAN X -> GeForce GTX 980 Ti", solo ora le schede video sono basati sui core GP104/102 dell'architettura Pascal e sono rilasciati con tecnologia di processo a 16 nm. Con la prima scheda video - NVIDIA GeForce GTX 1080 - abbiamo già incontrato come con lei versioni originali... Ora è il momento di esplorare la scheda grafica NVIDIA TITAN X più nuova e potente.

Il nuovo prodotto ha iniziato a costare $ 200 in più rispetto al suo predecessore - $ 1200 e, naturalmente, è ancora posizionato come una scheda video professionale per la ricerca e l'apprendimento profondo. Ma, come probabilmente capirai, siamo principalmente interessati alle sue prestazioni nelle applicazioni di gioco e nei benchmark grafici, dal momento che tutti i giocatori stanno aspettando con impazienza l'annuncio della GeForce GTX 1080 Ti, i cui ultimi segni hanno già privato i più ovvi seguaci del compagnia del sonno. Tuttavia, oggi testeremo NVIDIA TITAN X in benchmark computazionali selezionati per garantire la sua consistenza come scheda grafica professionale.

1. Recensione della scheda supervideo NVIDIA TITAN X 12 GB

caratteristiche tecniche della scheda video e il costo consigliato

Le caratteristiche tecniche e il costo della scheda video NVIDIA TITAN X sono riportati nella tabella a confronto con la NVIDIA GeForce GTX 1080 di riferimento e la vecchia versione della GeForce GTX TITAN X.




imballaggio e attrezzature

NVIDIA ha riservato per sé l'uscita di TITAN X, quindi la confezione della scheda video è standard: una scatola compatta che si apre verso l'alto e una scheda video inserita al centro in una busta antistatica.



Non c'è nulla nella confezione, sebbene all'interno sia presente uno scomparto aggiuntivo. Ricordiamo che il prezzo consigliato per NVIDIA TITAN X è di 1200 dollari USA.

Design e caratteristiche del PCB

Il design della nuova NVIDIA TITAN X è diventato più audace o addirittura più aggressivo rispetto al design della GeForce GTX TITAN X. Il case del sistema di raffreddamento sul lato anteriore della scheda video è stato dotato di bordi aggiuntivi che brillano sotto i raggi di luce , e il retro del PCB era chiuso con una copertura ondulata in metallo.




Accoppiata con un rotore della ventola cromato e la stessa scritta sul lato anteriore, la scheda video ha un aspetto davvero elegante e attraente. Si noti che l'estremità superiore di NVIDIA TITAN X conserva i simboli luminosi GEFORCE GTX, sebbene non siano più nel nome della scheda video.




La scheda video di riferimento è lunga 268 mm standard, alta 102 mm e spessa 37 mm.

Le uscite video sul pannello perforato triangolare opzionale sono le seguenti: DVI-D, tre DisplayPort versione 1.4 e una HDMI versione 2.0b.




A questo proposito, il nuovo prodotto non presenta modifiche rispetto alla GeForce GTX 1080.

Per creare una varietà di configurazioni SLI, la scheda video ha due connettori. Supporta le opzioni SLI a 2, 3 e 4 vie per combinare schede video utilizzando sia i nuovi bridge di collegamento rigidi che i vecchi flessibili.




Se la GeForce GTX 1080 di riferimento ha solo un connettore a otto pin per l'alimentazione aggiuntiva, allora TITAN X ha ricevuto anche un connettore a sei pin, il che non sorprende, perché il livello di consumo energetico dichiarato della scheda video è di 250 watt, come il precedente Modello GeForce GTX TITAN X. l'alimentazione consigliata per un sistema con una di queste schede video deve essere di almeno 600 watt.

Il PCB di riferimento NVIDIA TITAN X è molto più complesso della GeForce GTX 1080, il che ha senso dati i maggiori requisiti di alimentazione, una maggiore memoria video e un bus più ampio.




Il sistema di alimentazione della GPU è a cinque fasi e utilizza celle di alimentazione Dr. MOS e condensatori ai polimeri di tantalio. Altre due fasi di alimentazione sono riservate alla memoria video.



La gestione dell'alimentazione della GPU è gestita dal controller uP9511P di uPI Semiconductor.



Le funzioni di monitoraggio sono fornite dal controller INA3221 prodotto da Texas Instruments.



Realizzato secondo gli standard a 16 nm, il cristallo della GPU GP102 ha un'area di 471 mm2, è stato rilasciato la 21a settimana del 2016 (fine maggio) e appartiene alla revisione A1.


Oltre ai miglioramenti architetturali della linea di GPU Pascal, il nuovo GP102 contiene il 16,7% in più di processori shader universali e il loro numero totale è 3584 rispetto alla GPU GM200 della scheda grafica NVIDIA GeForce GTX TITAN X. 1080 è un impressionante 40%. Lo stesso allineamento e il numero di unità di trama, che il nuovo TITAN X ha 224 pezzi. A complemento dei punteggi GP102 ci sono 96 unità operative raster (ROP).

Anche le frequenze della GPU sono aumentate. Se la frequenza base della GPU della GeForce GTX TITAN X in modalità 3D era 1000 MHz e poteva essere potenziata fino a 1076 MHz, allora la nuova TITAN X ha una frequenza base di 1418 MHz (+ 41,8%) e la frequenza di boost dichiarata è 1531 MHz . Infatti, secondo i dati di monitoraggio, la frequenza del processore grafico è aumentata brevemente a 1823 MHz e una media di 1823 MHz. Si tratta di un aumento molto significativo rispetto al suo predecessore. Aggiungiamo che quando si passa alla modalità 2D, la frequenza della GPU si riduce a 139 MHz con una contemporanea diminuzione della tensione da 1,050 V a 0,781 V.

NVIDIA TITAN X è dotato di 12 GB di memoria GDDR5X, composta da dodici chip Micron (etichettati 6KA77 D9TXS), saldati solo sul lato anteriore del PCB.



Rispetto alla precedente GeForce GTX TITAN X sul GM200, la frequenza di memoria del nuovo TITAN X sul GP102 è 10008 MHz, che è del 42,7% superiore. Pertanto, con il bus di memoria a 384 bit invariato, la larghezza di banda della memoria di TITAN X raggiunge un impressionante 480,4 GB / s, che è solo leggermente inferiore all'attuale detentore del record in quest'area: AMD Radeon R9 Fury X con il suo HBM ad alta velocità e 512 GB/s. In modalità 2D, la frequenza di memoria è ridotta a 810 megahertz effettivi.

Il riepilogo della revisione dell'hardware della nuova scheda video sarà riassunto dalle informazioni dell'utility GPU-Z.


Abbiamo anche diffuso il BIOS della scheda video, letto e salvato utilizzando la stessa utility.

sistema di raffreddamento - efficienza e livello di rumore

Il sistema di raffreddamento NVIDIA TITAN X è identico al sistema di raffreddamento NVIDIA GeForce GTX 1080 Founders Edition.



Si basa su un dissipatore di calore in alluminio nichelato con una camera di vapore in rame alla base, responsabile del raffreddamento della GPU.



In termini di area, questo radiatore è piccolo e la distanza intercostale non supera i due millimetri.



Pertanto, non è difficile presumere che l'efficienza del raffreddamento della GPU con questo radiatore dipenderà seriamente dalla velocità della ventola (che, di fatto, è stata confermata in seguito).

Una piastra metallica con distanziatori termici è riservata al raffreddamento dei chip di memoria e degli elementi del circuito di alimentazione.



Abbiamo usato diciannove cicli dello stress test Fire Strike Ultra dal pacchetto 3DMark per testare il regime di temperatura della scheda video come carico.



Per monitorare le temperature e tutti gli altri parametri, è stato utilizzato il programma MSI Afterburner versione 4.3.0 Beta 14 e successive, nonché l'utility GPU-Z versione 1.12.0. I test sono stati effettuati nel caso chiuso dell'unità di sistema, la cui configurazione puoi vedere nella prossima sezione dell'articolo, a temperatura ambiente 23,5~23,9 gradi Celsius.

Prima di tutto, abbiamo verificato l'efficienza di raffreddamento di NVIDIA TITAN X e il suo regime di temperatura con il controllo della velocità della ventola completamente automatico.



Modalità automatica (1500 ~ 3640 giri/min)


Come si può vedere dal grafico di monitoraggio, la temperatura della GPU della scheda video NVIDIA TITAN X ha raggiunto molto rapidamente gli 88-89 gradi Celsius, per poi, grazie ad un aumento relativamente netto della velocità della ventola da 1500 a 3500 rpm, stabilizzarsi a circa 86 gradi Celsius. Inoltre, durante il test, la velocità della ventola è aumentata a 3640 rpm. È improbabile che qualcuno di noi con te si aspettasse altri indicatori di temperatura da una scheda video di riferimento con un pacchetto termico di 250 watt, che praticamente non differiscono dalla GeForce GTX TITAN X.

Alla massima velocità della ventola, la temperatura della GPU NVIDIA TIAN X viene ridotta di 12-13 gradi Celsius rispetto alla regolazione automatica.



Velocità massima (~ 4830 giri/min)


In entrambe le modalità ventola, la NVIDIA TITAN X è una scheda grafica molto rumorosa. A proposito, NVIDIA non priva i proprietari di questo modello di scheda video della garanzia quando si sostituisce il dispositivo di raffreddamento di riferimento con opzioni alternative.

potenziale di overclock

Durante il controllo del potenziale di overclock di NVIDIA TITAN X, abbiamo aumentato il limite di potenza del 120% massimo possibile, il limite di temperatura è aumentato a 90 gradi Celsius e la velocità della ventola è stata fissata manualmente all'88% di potenza o a 4260 giri/min. Dopo diverse ore di test, abbiamo scoperto che senza perdita di stabilità e comparsa di difetti dell'immagine, la frequenza di base del processore grafico può essere aumentata di 225 MHz (+ 15,9%) e la frequenza effettiva della memoria video - di 1240 MHz (+ 12,4%).



Di conseguenza, le frequenze della NVIDIA TITAN X overcloccata in modalità 3D erano 1643-1756 / 11248 MHz.


A causa della significativa variazione delle frequenze della GPU durante il test del regime di temperatura della scheda video overcloccata, il test del pacchetto 3DMark ha riportato nuovamente l'instabilità di TITAN X.



Nonostante ciò, tutti i 19 cicli di questo test, così come tutti i giochi della suite di test, sono stati superati con successo e, secondo i dati di monitoraggio, la frequenza principale della scheda video overcloccata è aumentata fino a 1987 MHz.



88% di potenza (~ 4260 giri/min)


Tenendo conto dell'overclocking della NVIDIA TITAN X di riferimento, possiamo presumere che l'originale GeForce GTX 1080 Ti si overcloccherà ancora meglio. Tuttavia, il tempo lo dirà.

2. Configurazione del test, strumenti e metodologia di test

Le schede video sono state testate su un sistema con la seguente configurazione:

scheda madre: ASUS X99-A II (Intel X99 Express, LGA2011-v3, BIOS 1201 del 10/11/2016);
processore centrale: Intel Core i7-6900K (14 nm, Broadwell-E, R0, 3,2 GHz, 1,1 V, 8 x 256 KB L2, 20 MB L3);
Sistema di raffreddamento della CPU: Phanteks PH-TC14PЕ (2 Corsair AF140, ~ 900 rpm);
interfaccia termica: ARCTIC MX-4 (8,5 W/(m*K));
RAM: DDR4 4 x 4 GB Corsair Vengeance LPX 2800 MHz (CMK16GX4M4A2800C16) (XMP 2800 MHz / 16-18-18-36_2T / 1,2 V o 3000 MHz / 16-18-18-36_2T / 1,35 V) ;
schede video:

NVIDIA TITAN X 12 GB 1418-1531 (1848) / 10008 MHz e overcloccato a 1643-1756 (1987) / 11248 MHz;
Gigabyte GeForce GTX 1080 G1 Gaming 8 GB 1607-1746 (1898) / 10008 MHz e overclockata a 1791-1930 (2050) / 11312 MHz;
NVIDIA GeForce GTX 980 Ti 6 GB 1000-1076 (1189) / 7012 MHz e overcloccata a 1250-1326 (1437) / 8112 MHz;

disco per sistema e giochi: Intel SSD 730 480GB (SATA-III, BIOS vL2010400);
disco di riferimento: Western Digital VelociRaptor (SATA-II, 300 GB, 10.000 rpm, 16 MB, NCQ);
disco di archivio: Samsung Ecogreen F4 HD204UI (SATA-II, 2 TB, 5400 rpm, 32 MB, NCQ);
scheda audio: Auzen X-Fi HomeTheater HD;
case: Thermaltake Core X71 (quattro be quiet! Silent Wings 2 (BL063) a 900 rpm);
pannello di controllo e monitoraggio: Zalman ZM-MFC3;
Alimentatore: Corsair AX1500i Digital ATX (1500 W, 80 Plus Titanium), ventola da 140 mm;
monitor: Samsung S27A850D da 27 pollici (DVI, 2560 x 1440, 60 Hz).

Ovviamente le versioni precedenti della scheda video TITAN X non potevano rimanere con noi, quindi confronteremo il nuovo prodotto con altre due schede video, ma per nulla lente. Il primo di questi sarà l'originale Gigabyte GeForce GTX 1080 G1 Gaming, che abbiamo testato alle frequenze della NVIDIA GeForce GTX 1080 di riferimento, nonché quando è stato overcloccato a 1791-1930 / 11312 MHz.





Si noti che la frequenza di picco del processore grafico di questa scheda video durante l'overclock ha raggiunto i 2050 MHz.

La seconda scheda video da testare è la NVIDIA GeForce GTX 980 Ti di riferimento, le cui prestazioni abbiamo testato sia a frequenze nominali che quando overcloccata a 1250-1326 (1437) / 8112 MHz.





Poiché alla sua uscita la GeForce GTX 980 Ti nei giochi ha dimostrato prestazioni pari alla precedente GeForce GTX TITAN X, questo confronto può essere considerato un confronto tra due diverse TITAN X. Aggiungiamo che i limiti di potenza e temperatura su tutte le schede video sono stati aumentati al massimo possibile e ai driver GeForce è stata data la priorità per le massime prestazioni.

Per ridurre la dipendenza delle prestazioni delle schede video dalla velocità della piattaforma, è stato overcloccato il processore a otto core da 14 nm con moltiplicatore di 40, frequenza di riferimento di 100 MHz e funzione Load-Line Calibration attivata al terzo livello per 4,0 GHz quando la tensione nel BIOS della scheda madre sale a 1,2095 V.



Allo stesso tempo, 16 gigabyte di RAM hanno funzionato a una frequenza 3,2 GHz con tempi 16-16-16-28 CR1 a una tensione di 1,35 V.

Il test, iniziato il 20 ottobre 2016, è stato condotto con il sistema operativo Microsoft Windows 10 Professional con tutti gli aggiornamenti alla data specificata e con i seguenti driver installati:

chipset della scheda madre Driver del chipset Intel - 10.1.1.38 WHQL dal 10/12/2016;
Interfaccia del motore di gestione Intel (MEI) - 11.6.0.1025 WHQL dal 14.10.2016;
driver della scheda video su GPU NVIDIA - GeForce 375.57 WHQL dal 20/10/2016.

Poiché le schede video nei test odierni sono molto produttive, è stato deciso di abbandonare i test con una risoluzione di 1920 x 1080 pixel ed è stata utilizzata solo una risoluzione di 2560 x 1440 pixel. Le risoluzioni sono ancora più alte, purtroppo il monitor esistente non supporta. Tuttavia, visti i risultati delle ultime innovazioni, non c'è motivo di rimpiangere l'indisponibilità di risoluzioni più elevate. Per i test sono state utilizzate due modalità di qualità grafica: Quality + AF16x - qualità delle texture nei driver per impostazione predefinita con filtro anisotropico a 16x e Quality + AF16x + MSAA 4x (8x) con filtro anisotropico a 16x e anti-aliasing a schermo intero a 4x o 8x, nei casi in cui i fotogrammi al secondo medi sono rimasti sufficientemente alti per un gioco confortevole. In alcuni giochi, a causa delle specificità dei loro motori di gioco, sono stati utilizzati altri algoritmi di anti-aliasing, che verranno indicati più avanti nella metodologia e nei diagrammi. Il filtro anisotropico e l'anti-aliasing a schermo intero sono stati abilitati direttamente nelle impostazioni di gioco. Se queste impostazioni erano assenti nei giochi, i parametri sono stati modificati nel pannello di controllo dei driver GeForce. Anche V-Sync è stato forzatamente disabilitato lì. Oltre a quanto sopra, non sono state apportate ulteriori modifiche alle impostazioni del driver.

Le schede video sono state testate in un test grafico, un test VR e quindici giochi, aggiornati alle ultime versioni alla data di pubblicazione di questo articolo. Rispetto al nostro precedente prova le schede video i vecchi e non ad alta intensità di risorse Thief e Sniper Elite III sono esclusi dal set di test, ma sono inclusi i nuovi Total War: WARHAMMER e Gears of War 4 con supporto per API DirectX 12 (ora ci sono cinque di questi giochi nel set) . Inoltre, nei seguenti articoli sulle schede video, nell'elenco apparirà un altro nuovo gioco con supporto per API DirectX 12. Quindi, ora l'elenco delle applicazioni di test è simile a questo (i giochi e gli ulteriori risultati dei test in essi sono disposti nell'ordine della loro uscita ufficiale):

3DMark(DirectX 9/11) - versione 2.1.2973, testata nelle scene Fire Strike, Fire Strike Extreme, Fire Strike Ultra e Time Spy (il diagramma mostra il punteggio grafico);
SteamVR- test per il supporto della "realtà virtuale", il risultato è stato preso come numero di frame testati durante il test;
Crysis 3(DirectX 11) - versione 1.3.0.0, tutte le impostazioni della qualità grafica al massimo, il grado di sfocatura è medio, l'abbagliamento è attivo, modalità con FXAA e con MSAA 4x, doppio passaggio sequenziale di una scena con script dall'inizio della missione Swamp della durata di 105 secondi;
Metropolitana: Ultima luce(DirectX 11) - versione 1.0.0.15, è stato utilizzato il test di gioco integrato, impostazioni di qualità grafica e tessellation a livello Very High, tecnologia Advanced PhysX in due modalità di test, test con SSAA e senza anti-aliasing, doppia corsa sequenziale della scena D6;
Battlefield 4(DirectX 11) - versione 1.2.0.1, tutte le impostazioni della qualità grafica su Ultra, doppia esecuzione sequenziale della scena scriptata dall'inizio della missione TASHGAR della durata di 110 secondi;
Grand Theft Auto V(DirectX 11) - build 877, impostazioni di qualità su Very High, ignorando le restrizioni proposte abilitate, V-Sync disabilitato, FXAA abilitato, NVIDIA TXAA disabilitato, MSAA per i riflessi disabilitato, ombre morbide NVIDIA;
DiRT Rally(DirectX 11) - versione 1.22, abbiamo utilizzato il test integrato sulla pista Okutama, impostazioni della qualità grafica al livello massimo per tutti i punti, Advanced Blending - On; test con MSAA 8x e senza anti-aliasing;
Batman: il cavaliere di Arkham(DirectX 11) - versione 1.6.2.0, impostazioni di qualità su Alta, Risoluzione texture normale, Anti-Aliasing attivo, V-Sync disabilitato, test in due modalità - con e senza attivazione delle ultime due opzioni NVIDIA GameWorks, doppia esecuzione sequenziale di il built-in in un gioco di pasta;
(DirectX 11) - versione 4.3, impostazioni di qualità delle texture a livello Very High, Texture Filtering - Anisotropic 16X e altre impostazioni di massima qualità, test con MSAA 4x e senza anti-aliasing, doppia esecuzione sequenziale del test integrato nel gioco.
L'ascesa del Tomb Raider(DirectX 12) - versione 1.0 build 753.2_64, tutti i parametri al livello Very High, Dynamic Foliage - High, Ambient Occlusion - HBAO +, tassellatura e altre tecniche di miglioramento della qualità sono attivati, due cicli di test del benchmark integrato (Geothermal Valley scene) senza anti-aliasing e con attivazione SSAA 4.0;
Lontano primordiale(DirectX 11) - versione 1.3.3, livello di qualità massimo, texture ad alta risoluzione, nebbia volumetrica e ombre al massimo, test delle prestazioni integrato senza anti-aliasing e con attivazione SMAA;
Tom clancy è la divisione(DirectX 11) - versione 1.4, livello di qualità massimo, tutti i parametri di miglioramento dell'immagine sono attivati, Temporal AA - Supersampling, modalità di test senza anti-aliasing e con attivazione di SMAA 1X Ultra, test delle prestazioni integrato, ma fissando i risultati FRAPS;
Sicario(DirectX 12) - versione 1.5.3, test integrato con impostazioni di qualità grafica a livello "Ultra", SSAO abilitato, qualità shadow "Ultra", protezione della memoria disabilitata;
Deus Ex: L'umanità divisa(DirectX 12) - versione 1.10 build 592.1, tutte le impostazioni di qualità sono impostate manualmente al livello massimo, tassellatura e profondità di campo sono attivate, almeno due esecuzioni consecutive del benchmark integrato nel gioco;
Total War: WARHAMMER(DirectX 12) - versione 1.4.0 build 11973.949822, tutte le impostazioni di qualità grafica al livello massimo, riflessi abilitati, memoria video illimitata e SSAO abilitato, doppia esecuzione sequenziale del benchmark integrato nel gioco;
Gears of War 4(DirectX 12) - versione 9.3.2.2, impostazioni di qualità su Ultra, V-Sync disabilitato, tutti gli effetti abilitati, invece di anti-aliasing non supportato dal gioco, abbiamo usato lo scaling della risoluzione del 150% (fino a 3840 x 2160), doppia esecuzione sequenziale del benchmark integrato nel gioco...

Se i giochi implementavano la capacità di fissare il numero minimo di fotogrammi al secondo, si rifletteva anche nei diagrammi. Ogni prova è stata eseguita due volte, come risultato finale è stato preso il migliore dei due valori ottenuti, ma solo se la differenza tra loro non superava l'1%. Se le deviazioni delle esecuzioni del test superavano l'1%, il test veniva ripetuto almeno un'altra volta per ottenere un risultato affidabile.

3. Risultati dei test di prestazione

Sui diagrammi, i risultati del test delle schede video senza overclocking sono evidenziati in verde e, quando overcloccati, in turchese scuro. Poiché tutti i risultati sui diagrammi hanno uno schema comune, non commenteremo ciascuno di essi separatamente, ma analizzeremo i diagrammi pivot nella prossima sezione dell'articolo.

3DMark




SteamVR




Crysis 3




Metropolitana: Ultima luce







Battlefield 4




Grand Theft Auto V




DiRT Rally




Batman: il cavaliere di Arkham




Tom Clancy's Rainbow Six: Siege




L'ascesa del Tomb Raider




Lontano primordiale




Tom clancy è la divisione




Sicario




Deus Ex: L'umanità divisa




Total War: WARHAMMER

Dato che stiamo testando Total War: WARHAMMER per la prima volta, daremo le impostazioni con cui questo gioco verrà testato oggi e nei nostri successivi articoli sulle schede video.



E poi i risultati.




Gears of War 4

Presenteremo anche le impostazioni del nuovo gioco Gears of War 4, che è stato incluso per la prima volta nel set di prova.








I risultati sono i seguenti.



Integriamo i diagrammi costruiti con una tabella riassuntiva con i risultati dei test con il valore medio e minimo visualizzato del numero di fotogrammi al secondo per ciascuna scheda video.



I grafici pivot e l'analisi dei risultati sono i prossimi.

4. Grafici di sintesi e analisi dei risultati

Sulla prima coppia di diagrammi riepilogativi, proponiamo di confrontare le prestazioni della nuova NVIDIA TITAN X 12 GB alle frequenze nominali e della NVIDIA GeForce GTX 980 Ti di riferimento 6 GB anche alle frequenze nominali. I risultati dell'ultima scheda video vengono presi come punto di riferimento iniziale e l'FPS medio della scheda video NVIDIA TITAN X viene posticipato come percentuale di esso. Il vantaggio della nuova scheda grafica è senza dubbio impressionante.



Nelle nostre condizioni e impostazioni di test, NVIDIA TITAN X è almeno il 48% più veloce di NVIDIA GeForce GTX 980 Ti e i suoi valori massimi di superiorità raggiungono l'incredibile 85%! Considerando che la GeForce GTX 980 Ti nei giochi era in realtà uguale alla precedente GeForce TITAN X, possiamo dire che NVIDIA TITAN X è altrettanto più veloce del suo predecessore. Il progresso di una GPU Pascal a tutti gli effetti è incredibile, è un peccato che mentre tutto questo è molto costoso, ma la GeForce GTX 1080 Ti che già tremola all'orizzonte sarà notevolmente più conveniente (l'unica domanda è, cosa verrà tagliato esattamente in loro?). Quindi, in media per tutti i giochi a 2560 x 1440 pixel, NVIDIA TITAN X è del 64,7% più veloce di NVIDIA GeForce GTX 980 Ti in modalità senza anti-aliasing e del 70,4% quando vengono attivati ​​vari algoritmi di anti-aliasing.

Ora stimiamo quanto NVIDIA TITAN X alle frequenze nominali è in vantaggio rispetto alla Gigabyte GeForce GTX 1080 G1 Gaming con la formula della frequenza data al livello delle versioni di riferimento della GeForce GTX 1080.



E ancora, un guadagno di prestazioni molto decente! Almeno, il nuovo prodotto è il 19% più veloce della GeForce GTX 1080 e in Rise of Tomb Raider il suo vantaggio raggiunge un impressionante 45,5%. In media su tutti i giochi, NVIDIA TITAN X è più veloce del 27,0% in modalità non anti-aliasing e del 32,7% più veloce quando è abilitato.

Ora sogniamo che quando verrà rilasciata la GeForce GTX 1080 Ti, NVIDIA non taglierà il Pascal di fascia alta in termini di numero di blocchi e numero di processori shader, e allo stesso tempo i suoi partner rilasceranno versioni originali con frequenze più elevate . Di quanto cresceranno ancora le prestazioni dell'ammiraglia? La risposta è nel seguente grafico pivot.



L'overclocking di NVIDIA TITAN X del 15,9% nel core e del 12,4% nella memoria video accelera la scheda video già incredibilmente veloce del 12,9% in modalità senza anti-aliasing e del 13,4% quando è attivato AA. Tornando al primo grafico pivot, è facile presumere che la GeForce GTX 1080 Ti originale potrebbe rivelarsi due volte più veloce riferimento GeForce GTX 980 Ti o GeForce GTX TITAN X. Naturalmente, un tale confronto non è oggettivo, perché tutti sanno che l'originale GeForce GTX 980 Ti è spesso in grado di overclockare a 1,45-1,50 GHz in core, il che significa il vantaggio del potenziale GeForce GTX 1080 Ti non sarà così alta. Tuttavia, anche un aumento delle prestazioni del 60-70% rispetto all'ammiraglia della generazione precedente non può non impressionare. Dove abbiamo un aumento simile delle unità di elaborazione centrale o della RAM? Non c'è niente di simile, anche nel segmento superiore. E NVIDIA ha già tali capacità!

5. Elaborazione su GPU

Innanzitutto, testeremo le prestazioni della nuova scheda video NVIDIA TITAN X nel benchmark CompuBench CL versione 1.5.8. I primi due test sono il riconoscimento facciale basato sull'algoritmo Viola-Jones e basato sul calcolo del vettore di movimento del flusso ottico TV-L1.



Ancora una volta, le prestazioni di NVIDIA TITAN X sono impressionanti. Nella modalità operativa nominale, il nuovo prodotto supera la GeForce GTX 980 Ti di riferimento del 66,6% nel test Face Detection e del 90,4% nel benchmark TV-L1 Optical Flow. Anche il vantaggio rispetto alla GeForce GTX 1080 è abbastanza evidente e l'overclocking della nuova "Titan" accelera questa scheda video di un altro 8,1-12,1%. Tuttavia, il guadagno di prestazioni è approssimativamente lo stesso per le altre due schede video di prova quando le frequenze vengono aumentate.

Successivamente, abbiamo il prossimo test per disegnare il movimento delle onde della superficie dell'acqua mediante la trasformata discreta veloce di Fourier - Ocean Surface Simulation, nonché il test di simulazione fisica delle particelle Particle Simulation.



Una caratteristica distintiva di questa coppia di test è stata la relativa vicinanza dei risultati della GeForce GTX 980 Ti e della GeForce GTX 1080, sembra che il core Maxwell non si arrende facilmente. Ma prima della nuova TITAN X, entrambe queste schede video cedono il passo, perdendo dal 42,6 al 54,4%.

I risultati nel test di composizione video sono molto più densi.



La Gigabyte GeForce GTX 1080 G1 Gaming overcloccata riesce persino a raggiungere la NVIDIA TITAN X nominale, sebbene quest'ultima dimostri un vantaggio del venti percento rispetto alla GeForce GTX 980 Ti.

Ma nella simulazione del mining della criptovaluta Bitcoin, vediamo di nuovo il colossale vantaggio di NVIDIA TITAN X.



Il nuovo prodotto è quasi due volte più veloce della GeForce GTX 980 Ti e del 30,4% più veloce della Gigabyte GeForce GTX 1080 G1 Gaming alle frequenze della NVIDIA GeForce GTX 1080 di riferimento. A questo ritmo di aumento delle prestazioni, NVIDIA e le schede video basate su I processori grafici AMD rimarranno un bel po'.

Il prossimo passo è il test GPGPU dell'utility AIDA64 Extreme versione 5.75.3981 Beta. Dai risultati ottenuti, abbiamo costruito diagrammi per operazioni in virgola mobile con precisione singola e doppia.



Se la precedente NVIDIA GeForce GTX TITAN X ha superato la prima versione di GeForce GTX TITAN del 62% in questi test, la nuova TITAN X sul core Pascal supera il suo predecessore del 97,5%! Per qualsiasi altro risultato del test AIDA64 GPGPU, puoi contattare l'argomento di discussione dell'articolo nella nostra conferenza.

Infine, proviamo la scena più difficile dell'ultimo LuxMark 3.1 - Hotel Lobby.



Si noti che la vecchia GeForce GTX 980 Ti "non delude" la Gigabyte GeForce GTX 1080 G1 Gaming in questo test, ma TITAN X la supera immediatamente del 58,5%. Prestazioni fenomenali! Tuttavia, è un peccato che NVIDIA stia ritardando il rilascio della GeForce GTX 1080 Ti per ora, ed è particolarmente un peccato che nessuno lo stia spingendo in questo.

6. Consumo energetico

Il consumo energetico è stato misurato utilizzando un alimentatore Corsair AX1500i tramite l'interfaccia Corsair Link e l'omonimo programma, versione 4.3.0.154. Il consumo energetico dell'intero sistema nel suo insieme è stato misurato senza tenere conto del monitor. La misurazione è stata eseguita in modalità 2D durante il normale lavoro in Microsoft Word o durante la navigazione in Internet, nonché in modalità 3D. In quest'ultimo caso, il carico è stato creato utilizzando quattro cicli consecutivi della scena introduttiva a livello di palude di Crysis 3 a 2560 x 1440 pixel con le impostazioni di qualità grafica massima utilizzando MSAA 4X. Le tecnologie di risparmio energetico della CPU sono disabilitate.

Confrontiamo nel diagramma il consumo energetico dei sistemi con le schede grafiche testate oggi.



Nonostante il colossale aumento delle prestazioni ovunque, NVIDIA è riuscita a mantenere il pacchetto termico del nuovo TITAN X con un core Pascal entro gli stessi limiti della versione precedente di TITAN X - 250 watt, quindi il livello di consumo energetico dei sistemi con questi le schede video non differiscono in modo significativo. Quindi, nella modalità operativa nominale, la configurazione con NVIDIA TITAN X consuma 41 watt in più rispetto alla NVIDIA GeForce GTX 980 Ti e durante l'overclock di entrambe le schede video, questa differenza si riduce a 23 watt. Allo stesso tempo, notiamo che il sistema con la Gigabyte GeForce GTX 1080 G1 Gaming è più economico di entrambe le versioni di TITAN X, e alle frequenze della GeForce GTX 1080 di riferimento rientra quasi nel limite dei 400 watt, e questo è tenendo conto del fatto che la configurazione contiene un processore a otto core decentemente overcloccato ... La novità è anche più economica in modalità 2D.

Conclusione

Poiché oggi le schede video NVIDIA nella persona della GeForce GTX 1080 e GTX 1070 occupano l'unica leadership in termini di prestazioni nel segmento di prezzo superiore, l'uscita di un TITAN X ancora più potente, possiamo ben considerare il più che né la dimostrazione di la sua superiorità tecnologica sull'unico concorrente. Inoltre, questa dimostrazione ha avuto pieno successo, perché, essendo nello stesso pacchetto termico, il vantaggio del nuovo prodotto rispetto alla scheda video di punta NVIDIA della generazione precedente nei test di gioco a volte raggiunge l'85%, e in media è di circa il 70%! Il guadagno in termini di prestazioni nell'elaborazione non sembra meno impressionante, il che, come sappiamo, è fondamentale per le schede grafiche della serie NVIDIA TITAN.

La differenza di prestazioni con la GeForce GTX 1080 è un po' più modesta e ammonta al 27-33%, ma il guadagno prestazionale dall'overclock in TITAN X è maggiore (circa il 13% contro il 10% della GeForce GTX 1080), il che significa che quando compare una GeForce GTX 1080 Ti basata sullo stesso GP102 possiamo contare su frequenze ancora più alte e, di conseguenza, guadagno prestazionale. Il punto negativo nell'annuncio di TITAN X è un aumento di duecento dollari del costo consigliato, tuttavia, a nostro avviso, per i potenziali consumatori di tali schede video un aumento del costo del 20% non causerà seri problemi. Bene, i giocatori più modesti stanno aspettando con impazienza l'apparizione della GeForce GTX 1080 Ti, così come il suo concorrente "rosso".

Inoltre, notiamo che, nonostante le prestazioni sbalorditive nei giochi, la stessa NVIDIA posiziona TITAN X, prima di tutto, come uno strumento efficace per l'addestramento delle reti neurali e la risoluzione dei problemi relativi agli algoritmi di Deep Learning (deep learning). Questi algoritmi sono oggi attivamente utilizzati in una varietà di aree: voce, immagini, riconoscimento video, previsioni idrometeorologiche, diagnosi mediche più accurate, mappe ad alta precisione, robotica, auto a guida autonoma e così via. Pertanto, possiamo dire che le possibilità della nuova scheda grafica NVIDIA TITAN X sono infinite e soddisferanno qualsiasi utente.

Ringraziamo NVIDIA e personalmente Irina Shekhovtsova
per la scheda video fornita per il test
.