La tecnica usata da Sony dovrebbe essere una evoluzione di quella TimeWarp di Oculus.
https://www.youtube.com/watch?v=WvtEXMlQQtIIn parole povere:
-Per renderizzare 60fps, la finestra temporale è di 1/60 ovvero 16ms, poco ma non niente, il 1080p\60 si è visto anche su PS3. L'ideale sarebbe renderizzare a 120fps ma la finestra si accorcerebbe a 8ms. Fattibile, ma nessuno vorrebbe la qualità grafica di Half Life 2 nel 2015.
-La soluzione è quella di renderizzare in meno tempo, es. 13ms riducendo il costo grafico, e ritagliarsi non più di 3ms per "inventarsi" un frame di mezzo con qualche trucco.
-La prima soluzione proposta nel video è quella della rotazione della camera. L'autore fa notare che il frame tarocco ha il difetto di mancare di parallasse e che il minimo scarto crea bande nere ai lati. L'autore spiega come Timewarp, il sistema di Oculus, risolve il secondo problema allungando il frame da renderizzare in virtù del fatto che una rotazione di 1/120 genera una banda di pochi pixel in più. Il primo problema invece si risolve quasi da solo in quanto il frame generato, sebbene con artefatti, forse si noterebbe a 60 o 75fps ma poco, pochissimo a 120fps. Da quanto ho capito però questa non sarebbe la soluzione definitiva.
-La seconda soluzione proposta è quella della riproiezione dei pixel. Sfruttando la mappa di profondità che già serve per il rendering e quindi è un dato già calcolato, si riposizionano i pixel con un certo scarto e si crea una immagine che tiene conto della parallasse. Il problema di questa soluzione è l'effetto bordi neri che si vedono nel video causati dalla mancanza di informazioni a monte dovuta al lavoro di trasformare una immagine 2d in 3d. Il problema sarebbe risolvibile riempiendo i pixel con un algoritmo simile a quello di Photoshop (nota: invece di mostrare la clip con photoshop l'autore avrebbe dovuto mostrare il plugin di After Effect che serve proprio a trasformare una immagine 2d in 3d sfruttando il punto di fuga). Sempre in virtù del fatto che in realtà una rotazione minima di 1/120 genererebbe una banda di pochi pixel in più, il carico computazionale di riempimento "sarebbe" basso.
Il condizionale è d'obbligo perchè se fosse così semplice l'avrebbero usato anche Carmack in Oculus invece di esprimere dubbi a tal proposito. Immagino quindi che la soluzione proposta da Sony vada in questa direzione ma sia più leggera.
Una soluzione fattibile potrebbe essere lo screen space reprojection, usato per la stereoscopia in Crysis 2, che già funzionava discretamente e richiedeva solo 1ms di durata.
Qualunque gioco che su PS4 riesca ad andare a 60fps non dovrebbe avere grossi problemi ad essere riconvertito per Morpheus a 120fps. Cmq vedremo cosa mostreranno all'E3 dove una grossa parte dello stand sarà dedicata a Morpheus.