Io penso che nonostante ora la comparazione fra RTX e rasterizzazione non risulti scioccante, in un futuro prossimo una volta fatto l' occhio al ray tracing ed i suoi effetti luminosi fisicamente accurati, diventera' molto fastidioso guardare indietro a giochi pieni di "errori" visivi e ombre approssimate.
Certo non e' scioccante, oggi il raytracing non viene applicato alla ricostruzione dell'intera scena per ovvi limiti computazionali.
Il risultato e' "limitato" alla sola simulazione della riflessione della luce utilizzando un numero finito di rays partendo dall'occhio della visuale per cosi' dire (ed in aggiunta da una o piu' fonti di luce che compongono la scena).
Maggiore e' il numero di rays "sparati" e relative rifrazioni (a dire il vero pochi oggi, anche con la 2080ti), piu' compatta e piena risultera' la scena.
L'approccio e' del tipo: dedico dei core specializzati della gpu per la gestione dei rays e dei loro algoritmi di rifrazione base (di per se nemmeno troppo complessi), scarico alla gpu il rendering della sola global illumination e cerco di tenere coerente il vecchio rastering con il layer nuovo del raytracing senza generare artefatti assurdi. Boom la frittata e' fatta.
Un approccio "fai due cose concettualmente agli antipodi e cerca di tenerle unite meglio che puoi" e' agli antipodi dell'ottimizzazione imho. E magari i risultati sono anche un poh meh (vedi BattlefieldV).
Non so se vedremo mai giochi full raytraced (uddio, magari con un quad sli di 4080ti, 12 mila euro e vivi sereno), ma un approccio nativo almeno sulla parte di GI potrebbe giovare.
Probabilmente per molto tempo sara' solo una "costossissima" feature limitata al mondo PC e non un nuovo paradigma.
tornando IT, quello che mi sta veramente sul ca**o e' che abbiano tolto la tesselation sulle versioni console (che ok, sulle console baracca e' comprensibile). Avrebbero potuto mettere almeno 2 opzioni sulla One X, 1080p + tesselation e 4K nativi come adesso.
I due ultimi tomb raider non hanno insegnato nulla purtroppo