Grafica: cosa può fare Wii U?

Wii U: questa sconosciuta!

Non abbiamo specifiche tecniche, nessuno le ha fino a quando presenta un progetto a Nintendo richiedendo il kit di sviluppo e lo paga. Nonostante questa incertezza qualcosa lo possiamo dire, tutto questo perché le due demo tecniche mostrate nel corso dell’E3 sono in tempo reale. Di solito le demo tecniche sono sì elaborate sull’hardware in questione (a parte la prima presentazione di PlayStation 3 dove non avevano neanche deciso che GPU usare), ma sono precalcolate cioè il video ha animazioni predefinite, le impostazioni di luce e ombre sono predefinite così come le inquadrature e quindi i calcoli da fare sono molti di meno, e molto più semplici, rispetto a quando qualcosa nella scena può cambiare, come la posizione di un oggetto o le fonti di luce o la posizione della telecamera, che può sembrare una cosa irrilevante ma non lo è assolutamente.
Generalmente una scena precalcolata permette di ottenere una qualità visiva irraggiungibile in un gioco lungo tutto l’arco di vita di una piattaforma, perché puoi appunto permetterti di introdurre elementi che una applicazione in tempo reale non può permettersi; non sto dicendo che i giochi Wii U otterranno sicuramente quella qualità grafica vista nelle demo, ma che i giochi potrebbero raggiungerla con il tempo, forse anche superarla negli ultimi mesi di vita della console ma comunque non in scenari di gioco normale.

Con questo, forse è meglio spiegare cosa si intende esattamente per tempo reale per essere sicuri di parlare la stessa lingua, se avete una buona conoscenza del termine (cioè potete rispondere "sì" alla domanda: Conosci la principale differenza tra Unreal Engine 3 e CryEngine 2/3?) o semplicemente non vi interessa sapere su quali basi questo articolo poggia, passate oltre questo paragrafo. La computer grafica è divisa in due tipi: quella pre-renderizzata e quella in tempo reale, quest’ultimo ha altri due modi di essere elaborato. Nella grafica pre-renderizzata non importa quanto tempo ci mette la macchina per poter creare il filmato, o anche la singola immagine, puoi anche aspettare che un filmato di 1 minuto impieghi 8 ore di elaborazioni perché quello che consegnerai è solo il filmato, di altissima qualità, composto dai vari fotogrammi così come hai deciso tu, con le inquadrature e ogni elemento nella posizione che hai scelto e non importa se i tuoi computer hanno impiegato mesi per produrre Toy Story, tanto il film dura sempre 77 minuti e le scene saranno sempre le stesse.
Nei videogiochi questo non è possibile (e qua la mia coscienza mi impone di citare Dragon’s Lair come esempio in cui potrebbe esserlo) perché ogni giocatore ha una esperienza diversa e fa agire il proprio personaggio in modo diverso da tutti gli altri, dunque è necessario che in ogni istante il sistema elabori una immagine del mondo di gioco in quel momento quindi è necessario che il calcolo sia rapido.

Ci sono due modi di operare: il primo è che tutto sia in tempo reale, niente è predefinito e dunque tutto può cambiare rendendo la scena il più possibile dinamico: luci e ombre sono tra gli elementi più pesanti da calcolare e ad ogni minimo cambio di posizione della telecamera o di un oggetto i calcoli sono parecchio complessi; questo è l’approccio usato per esempio dal Cry Engine 2/3. L’altro modo è sacrificare questa personalizzazione precalcolando la scena al momento della creazione del livello, cioè creando le ombre e le luci ambientali in modo che quando il livello viene caricato questi elementi ci siano già e non devono essere aggiornati ogni volta; questo approccio è quello usato dall’Unreal Engine 3, a cui comunque si possono aggiungere luci dinamiche.

Ora possiamo esaminare il materiale. Nintendo ha mostrato due demo, quella con protagonista l’uccellino e quella che ha provocato forti emozioni a tutti i fan di Zelda.
 


Demo grafica Natura


Zelda HD (telecamera a schermo)

Quando abbiamo visto il primo trailer durante la conferenza stampa, abbiamo subito guardato quello che succedeva ma ho cercato imperfezioni, qualcosa che provasse fosse in temporale poi fortunatamente hanno mostrato il video interattivo anche al loro stand… mentre cercavo i dettagli ho trovato molti più dettagli di quello che speravo di trovare: lo stile del filmato ricorda molto quelli che ha usato AMD per i filmati di presentazione delle proprie schede video della serie Radeon HD 5000, e Nintendo ha una lunga tradizione con ATI fin dall’era GameCube. I filmati di cui parlo che potete scaricare dal sito dedicato agli sviluppatori, mostrano alcune caratteristiche riprodotte nella demo tecnica come la profondità di campo della demo Ladybug; questa tecnica è stata introdotta in modo efficace con le librerie grafiche DirectX 11 e questo vuol dire principalmente una cosa: la GPU che equipaggerà Wii U sarà compatibile con tutte le ultime tecnologie che ATI/AMD hanno sviluppato negli anni, probabilmente sarà "DirectX 11 compatibile" anche se gli sviluppatori ovviamente non useranno le DirectX ma le API proprietarie.

Tutto questo porta notevoli salti avanti di possibilità per gli sviluppatori rispetto alle altre console: semplificazione dello sviluppo di effetti grafici avanzati, shader molto più avanzati, migliori prestazioni all’inserimento di antialiasing… in parte anche la tassellazione, cavallo di battaglia delle DX11 ma comunque presente nelle librerie per Xbox 360, sebbene poco usate.
Questo video mostra più le capacità in termini di funzionalità che di potenza bruta, perché le scene mostrano sempre qualcosa in primo piano e sullo sfondo le cose lontane che non necessitano di molto dettaglio per apparire bene, ovviamente è necessaria molta potenza per mostrare fluidamente un video del genere ma non c’è la necessità che tutto sia equamente dettagliato perché la maggior parte delle cose si vedono solo di sfuggita e sulla distanza, e questa non è la situazione di un videogioco dove quasi tutto deve essere più o meno dello stesso livello di dettaglio. Per questo, c’è il video di Zelda.

Questo è quanto di più simile ci sia in un gioco normale, la demo mostra tutta la stanza e non ci sono zoom estremi; certo il livello è molto limitato con una sola stanza e questo probabilmente non sarà il vero dettaglio di uno Zelda HD, soprattutto non in zone all’aperto, perché i livelli dovranno essere molto più grandi. Però fa ben sperare perché è "completamente" interattiva: piccoli movimenti della telecamera, cambio di inquadratura, modifiche delle visualizzazione con il cambio in tempo reale tra schermo del controller e schermo della TV… addirittura la scena può cambiare in tempo reale tra giorno/notte senza il minimo rallentamento: in un video si può vedere uno che ha provato a cambiare l’impostazione come un pazzo in modo rapidissimo e la fluidità non ne ha risentito, segno che la console non è spinta al massimo. La qualità dei riflessi è eccezionale, un po’ meno per le ombre perché alcune fonti di luce, come il fuoco dei bracieri, non proiettano ombre… ma sono dettagli, in comparazione a come le luci e i riflessi sono dettagliati, non si può farne un dramma.
 Questa qualità potrebbe tranquillamente essere usata nei filmati di gioco, ma per una fase di gameplay che richiede di calcolare anche i comandi del giocatore, l’intelligenza artificiale, la fisica e altre cose più o meno impegnative, è possibile una qualità simile a quella mostrata, togliendo la cera dal pavimento e rinunciando ad alcune piccole cose, tra cui la possibilità di fare la modalità discoteca che durante il gioco non ha senso e che libererebbe la memoria.   A meno che la console non sia stata spinta verso i suoi limiti, ma questo è improbabile perché di solito si fa una demo tecnica per mostrare il massimo e non il massimo in gioco.
 

Come Xbox 360 e PlayStation 3?

Per favore, siamo seri. Queste console non riuscirebbero neanche a far girare la demo di Zelda, affermare che PlayStation 3 possa eseguire quella grafica durante il gameplay è da fanboy allo stato più puro. Innanzitutto, se le specifiche fossero quelle vociferate un po’ di tempo fa, che prevedevano una GPU simile a quella montata su Radeon HD4870 che non supporta alcuni effetti come la profondità di campo, sarebbe comunque almeno 2 volte più potente della GPU montata su Xbox 360.
Ma non è solo la potenza elaborativa della CPU e della GPU che conta: la memoria è sicuramente molto più grande di quella delle altre console, come affermato da Marc Parenteau, programmatore Ubisoft dedicato al capitolo di Assassin’s Creed per Wii U, e anche la cache della CPU è molto più grande consentendo di elaborare più velocemente gli elementi del gioco.
Certo, gli sviluppatori dei vari giochi hanno pubblicato brevi video dei giochi in sviluppo su Xbox e PlayStation ma questo perché creare un nuovo motore grafico o anche solo convertirne uno già esistente per una nuova piattaforma anche senza migliorarne le funzionalità, richiede molto tempo.

Questo è uno spiraglio di luce anche per i giocatori PC: in molti si lamentano, me compreso devo ammettere, del limitato sviluppo tecnologico e anzi dei passi indietro fatti (come tra Cry Engine 3 e 2), vedendo la speranza in nuove console che permettano agli sviluppatori di implementare in modo decente le tecnologie moderne e realizzare conversioni su PC degne di questo nome. Quel momento pare essere giunto.


Specifiche speculate?

Considerando che Nintendo ha sempre avuto console offrendo il massimo della tecnologia aveva da offrire nel periodo di lancio, con unica eccezione del Wii, affermare che avrebbe ancora una volta usato tecnologie vecchie sarebbe irrealistico, soprattutto dopo le demo mostrate. In un comunicato stampa IBM ha annunciato che il processore sarà costruito con la tecnologia a 45 nm, sarà un chip multicore personalizzato sulla base delle più recenti tecnologie Power Architecture ed è quindi realistico pensare che sia notevolmente superiore a Xenon, la CPU di Xbox 360, inoltre suggerisce che la memoria sia integrata, permettendo un rapido scambio di informazioni. Un PowerPC A2 supporta fino a 4 thread per core, ed esiste in versioni fino a 16 core. Se anche fosse limitato a 4 core, avrebbe a disposizione 16 thread contro i 2+7 a disposizione del Cell PlayStation 3; abbassando la frequenza, ed eliminando le cose che non servono ad una console come l’ottimizzazione per i file xml, eliminando i controller DDR3, 3 porte ethernet (su 4), è ipotizzabile che potrebbe consumare meno di 40 W e ottenere una capacità ancora elevatissima.

Parliamo della quantità di memoria: le console attuali hanno 512 MiB suddivise nel caso di PS3 in 256 MiB di sistema + 256 MiB video, mentre per Xbox sono 512 MiB impostabili a piacimento dal programmatore. Wii U ha come minimo 1 GiB di memoria, ma si tratta di una piattaforma che deve gestire risoluzioni fino a 1080p, è plausibile anche 1,5 GiB o 2 GiB; di più sarebbe stupefacente ma non sarebbe così importante e solo i giochi davvero enormi come potrebbe essere un GTA V ne gioverebbero davvero, ma a questo punto invece di salire con la memoria disponibile sarebbe meglio lavorare sulla velocità di lettura dei dischi, sicuramente superiore ai 4,5 MiB dei Blu-Ray di PlayStation 3 perché limitata alla velocità del 2006. Un lettore del formato proprietario iDensity ad elevata capacità, potrebbe raggiungere comodamente una velocità di 36 MiB in lettura (la velocità massima in scrittura di un masterizzatore Blu-ray attualmente). Anche di più come picco se scelgono la stessa strategia usata per Nintendo GameCube con la velocità angolare costante invece che con velocità lineare costante come usata dai lettori CD/DVD/Blu-ray, dove tralaltro sceglievano di leggere i dischi partendo dall’esterno per avere la velocità di lettura maggiore proprio all’inizio.

Per la GPU, potrebbe montare un ibrido Radeon HD6000 e HD7000, così come Xbox 360 monta un ibrido X1900 e HD2000 (principalmente perché le specifiche definitive di DirectX 10 dovevano ancora essere decise); il risultato sarebbe una GPU con potenza di calcolo oltre 15 volte superiore a quella di Xenos, considerando l’aumento di prestazioni con 3DMark06 partendo da HD 2900 ad HD 6870, e il miglioramento prestazionabile godibile con l’utilizzo di nuove funzionalità e librerie che ottimizzano il lavoro della GPU stessa; tuttavia lo scopo di Nintendo è sviluppare un sistema che mantenga anche i consumi, ipotizzando di non voler superare i 150 W di consumo globale (stiamo ipotizzando che la CPU consumi 40 W) sarebbe necessario non esagerare con la frequenza e non far consumare la GPU più di 100 W. Abbinando una architettura efficente a una diminuzione delle frequenze, il tutto potrebbe ridursi a una potenza elaborativa poco superiore a 10 volte quella montata su Xbox 360, e di conseguenza circa 14 volte quella su PlayStation 3.

Ovviamente ricordiamo che tutte queste sono speculazioni, un esercizio mentale di previsione di quello che potrebbe montare una console lanciata fra un anno con le promesse di avere capacità tecniche adeguate. Niente di tutto questo è basato su dati oggettivi: la proiezione della capacità della GPU è stata fatta confrontando il punteggio con un test sintetico di schede simili a quelle equipaggiate su console con l’attuale top di gamma AMD; il pensiero sulla CPU è tutto basato su un documento ufficiale riferito alla più recente tecnologia Power Architecture (Power ISA 2.06) e per quanto lo ritenga il più plausibile di tutto il discorso, è pur sempre basato su pensieri derivate dalle promesse senza test o specifiche effettive.

Ti è piaciuto quello che hai letto? Vuoi mettere le mani su giochi in anteprima, partecipare a eventi esclusivi e scrivere su quello che ti appassiona? Unisciti al nostro staff! Clicca qui per venire a far parte della nostra squadra!

Potrebbe interessarti anche