Per quanto ne so io, preferire un pannello a 60Hz ad uno 120Hz non ha
alcun senso.
Ripeto, sia LCD che OLED sono sample&
hold. Non c'è alcuna differenza visiva tra 60fps@60Hz e 60fps@120Hz perché ciascun fotogramma resta a schermo finché non viene sovrascritto dal successivo, e se il successivo è un duplicato (a prescindere dal fatto che questo provenga dal video sorgente o sia aggiunto dalla TV) semplicemente non c'è alcun cambiamento a schermo. In entrambi i casi, c'è un frame nuovo ogni 16ms circa. Ci possono essere delle differenze
teoriche in termini di lag, perché il pannello 120Hz deve avere un lag minimo perché deve stampare ogni fotogramma in 8ms circa quindi se gli dai in pasto un segnale 60Hz, quello deve aspettare qualche ms prima di rendere a schermo, ma il ritardo si annulla interamente a metà schermo circa; mentre un pannello a 60Hz con response time nullo può avere zero lag
in teoria. Ma stiamo parlando di fuffa.
Di contro, rispetto ad un pannello a 60Hz, uno a 120Hz permette di:
- avere molto più margine per il frame interpolation per sorgenti a 60fps (in teoria si può interpolare anche senza inserire un frame intero, ma dubito che i pannelli 60Hz presenti sul mercato oggi lo facciano, al massimo interpolano i film, che girano a 24fps)
- far girare i film con cadenza regolare, perché 120/24=5 e quindi si può fare 5:5 pulldown e replicare ogni frame cinque volte (un pannello 60Hz non può fare altro che un 3:2 pulldown come ai tempi dell'NTSC; se supporta 50Hz, torniamo al PAL, 2:2 pulldown e cadenza regolare, ma avanti veloce di un 4% circa per colmare i 2Hz rimanenti)
- se fai PC gaming,
ridurre il lag anche per giochi che girano a meno di 120fps (se la scheda video supporta 120Hz)
Il problema non sono i 120Hz, quello che la TV dei tuoi amici fa di diverso è con ogni probabilità quello che è stato già fatto presente qui in precedenza, ossia che gli LCD hanno un maggiore tempo di transizione da un frame all'altro perché i cristalli liquidi sono più lenti. Un altro fattore rilevante può essere la dimensione della TV e/o la distanza da essa, quanto più prende del tuo campo visivo tanto più ti darà fastidio.
Non conosco il gioco ma da come ne soffri credo proprio che questo Paper Mario sia male ottimizzato, che abbia un framerate molto variabile. In genere, se il gioco non gira bene è meglio tenerlo a 30fps fissi piuttosto che farlo variare continuamente, perché poi il risultato è il mix letale di framerate basso e altalenante con cadenza irregolare. Che è lo schifo esemplificato nella metà in basso di
questo test (nella metà in alto una approssimazione, però malfatta, di come sarebbe con il VRR). Come dicevo, c'è poco da fare, la soluzione migliore sarebbe usare un algoritmo di motion interpolation come quello che ho descritto, o comunque un BFI configurabile, ma in entrambi i casi coadiuvati dalla cestinazione dei frame ripetuti. Ma questa cosa non esiste oggi. E allora puoi solo metterci una pezza con il motion blur aggiunto dagli LCD. O magari con un OLED con BFI configurabile: restando i frame ripetuti, la resa sarebbe approssimabile a quella dei CRT (i Plasma erano un po' diversi perché facevano un global refresh e usavano il PWM di cui si parlava prima, cd. subfield drive, anche se in sostanza l'effetto era simile a quello dei CRT, la stessa immagine si imprimeva più volte sulla retina, causandone la moltiplicazione, tante volte quanto erano i subfield).
La speranza è che il VRR si diffonda presto ubiquamente (ma conoscendo Nintendo, non ci conterei tanto), così si potrà togliere la componente aggiuntiva di judder dovuta alla ripetizione incostante di frame.
Altre soluzioni, io non ne conosco, ma non sono un super-esperto. Se vuoi ulteriori conferme, puoi provare a fare un post nel forum di
Blur Busters, lì ne sanno più di tutti su questi argomenti.