C’è poco da girarci intorno: questa Game Developer Conference 2018 (aka GDC) ha fatto venire i brividi; Epic Games ha messo in mostra il futuro surreale della grafica grazie all’impiego della tecnologia Ray-Tracing (RTX, firmata Nvidia).
L’Unreal Engine sta per conquistare l’utopico olimpo grafico: il fotorealismo.
Alla Game Developers Conference 2018 (aka GCD) di San Francisco , Epic Games ha ospitato una presentazione di “State of Unreal” per dimostrare i futuri miglioramenti del suo noto motore grafico.
Come condivisibilmente riporta The Verge, Il più grande clou dell’evento è stata sicuramente la vetrina dedicata alla neo-tecnologia “Ray-Tracing”, dimostrata in tempo reale della compagnia con una consegnata direttamente dall’universo di Star Wars.
Successivamente è stato mostrato un alieno spaventosamente realistico, simile ad una lucertola, di nome Osiride (nell’esibizione, doppiato ed animato dall’attore di “Gollum” Andy Serkis) per chiudere il sipario con un “digital human” di nome Siren.
Se si vuole ri-vivere l’evento completo:
La scena di Star Wars è stata progettata per mostrare i vari riflessi di luce in tempo reale ed i strabilianti effetti cinematografici che possono essere raggiunti con l’implemento del Ray-Tracing.
Nvidia ha appena annunciato la suddetta tecnologia identificandola come “Nvidia RTX”, la quale sarà una delle features integrate nella sua prossima generazione di schede grafiche, e proprio Epic Games sarà tra i primi ad offrire il supporto.
Questa tecnica di rendering è stata “un sogno dell’industria della grafica e della visualizzazione per anni”, ha dichiarato il vicepresidente senior di Nvidia, Tony Tamasi, ma il ritardo di finora è stato causato dalla mancanza di chip grafici abbastanza potenti per raggiungere tale livello di meraviglia tecnica.
Con l’aiuto Nvidia RTX e delle nuove API DirectX Raytracing (DXR) di Microsoft, Epic Games renderà disponibile il Ray-Tracing, in tempo reale, agli sviluppatori di Unreal Engine entro la fine dell’anno.
Il monologo di Osiris riguarda le animazioni facciali e il modo in cui esse possono essere mappate direttamente dall’attore umano al personaggio digitale.
Lavorando con la cosiddetta tecnologia Meta Human Framework di 3Lateral per catturare le performance facciali degli attori, l’Unreal Engine si mostra capace di produrre animazioni straordinariamente realistiche (impiegate comunque per un’animazione che di fatto è fittizia).
Il livello dei dettagli grafici e della fedeltà in questa scena è sconcertante dal momento in cui tutti i tipi di piccole contrazioni e convulsioni avvengono sul viso…ed è tutto elaborato in tempo reale.
Il concept purtroppo, a differenza della demo di Ray-Tracing, non è destinato a nessun tipo di implementazione immediata e serve solo a mostrare ciò che un giorno sarà possibile raggiungere.
In conclusione, si dovrà guardare da vicino per dire che la performance di Siren è digitale piuttosto che umana.
Questo è un altro concept, prodotto in collaborazione tra Epic Games, Tencent, Vicon (che ha contribuito al motion capture di dita e corpo), Cubic Motion e 3Lateral.
Il video è stato realizzato mappando la somiglianza dell’attrice Bingjie Jiang con i movimenti eseguiti da Alexa Lee.
Le tecniche per ottenere il realismo del movimento sono ancora piuttosto impegnative, compresi i dispositivi di motion capture per il corpo intero, anche se il progresso di Unreal Engine sta semplificando il processo di rendering ed innalzando il livello di fedeltà visiva del prodotto finale.
Inoltre, quale miglior Titolo se non l’attesissimo Metro: Exodus per mostrare per mostrare i primi risultati tangibili?