ok, ho un quesito per i tech whoreAnche il primo Quake aveva nemici poligonali.
quake 2 è stato il primo fps per pc completamente poligonale (ovvero nemici compresi) ?
ok, ho un quesito per i tech whore
quake 2 è stato il primo fps per pc completamente poligonale (ovvero nemici compresi) ?
Mmmm....
...parliamo di fox engine.
Ma quant'è bello.
(http://community.us.playstation.com/servlet/JiveServlet/showImage/2-31111128-10228/F3.jpg)
basta vedere gli effetti "nominati" sia nel famoso trailer D11 di crysis 2 e quelli di Samaritan, sono gli stessi, cambia solo ovviamente che sono due giochi diversi. D'altronde pure DICE, per saltare all'altro motore next gen, dichiarò che Battlefield 3 sarà il punto di partenza della next gen console, quando arriverà.
Per quanto riguarda gli ultimi screen di beyond good and evil2 , sono veramente deluso. Spero siano vecchi, perchè sul serio non si vede niente di così clamoroso, nè per quanto riguarda l'illuminazione né per quanto riguarda il dettaglio della scena. Spero sia roba vecchia, perchè siamo eoni indietro rispetto al famoso video spacciato in "real time" di qualche anno fa.
In soldoni: fra un modello di 1000 tris + tasellazione e un modello da - numero a caso - 3000 tris senza tassellazione, che differenza c'è a livello di complessità di calcolo?Fondamentalmente nel rendering credo.
Ma il punto è questo: la tassellazione non fa risparmiare poligoni; al contrario, suddivide a posteriori i poligoni dei modelli, aumentando i veritici che possono essere spostati dalla displacement. A livello puramente numerico, trasforma dei modelli low-poly in modelli hi-poly.In soldoni: fra un modello di 1000 tris + tasellazione e un modello da - numero a caso - 3000 tris senza tassellazione, che differenza c'è a livello di complessità di calcolo?Quindi se si può risparmiare poligoni da renderizzare é meglio.
Avete inteso male quello che ho scritto.CitazioneQuindi se si può risparmiare poligoni da renderizzare é meglio.Ma il punto è questo: la tassellazione non fa risparmiare poligoni; al contrario, suddivide a posteriori i poligoni dei modelli, aumentando i veritici che possono essere spostati dalla displacement. A livello puramente numerico, trasforma dei modelli low-poly in modelli hi-poly.
Il problema si genera nel momento in cui bisogna passare sul poligono 10 volte tra shader, edgeAA, illuminazione e cazzi vari. Allora si che gestire 1milione di poligoni o 10mila poligoni inizia ad essere differente. E i tassellatori sanno fare un lavoro migliore di scrematura poligoni, e quindi renderizzano in maniera più efficiente.Il discorso fila fino a questo punto. Perché la tassellazione dovrebbe fare un lavoro migliore? Quello che fa è semplicemente suddividere un modello di 1000 poligoni in 10.000 poligoni; alla fine, nel rendering, sempre 10.000 poligoni si deve andare a calcolare.
Spiegalo anche a noi. ^____^UAd occhio e croce quelle fiamme sono particellari. Fuoco e fumo volumetrici non sono una novità, ma la simulazione realistica richiede potenza hardware dedicata, soluzioni tipo Fermi o Kepler. Non che WiiU non ne sia capace, ma dovrebbe rubare risorse al rendering. Sempre per lo stesso motivo, non tutto il carico della fisica può essere delegato alla sola GPU: AMD, Intel e IBM si stanno spostando sul computing eterogeneo (HSA), tecnologie che vedremo su PS4 e Xbox720, difficile che Epic non ne abbia tenuto conto quando ha realizzato l'engine.
si UnNamed però in un'intervista di mesi fa si parlava di UE4 che girasse anche sui tablet.Se ricordo bene si parlava di tablet del 2016.
http://youtu.be/UVX0OUO9ptUVabè, potevano anche usare un cameraman meno ubriaco.
Su che pianeta gira?Vorrei capirlo pure io.
Unreal Engine 4:paura!
http://www.gametrailers.com/video/exclusive-elemental-unreal-engine/731875
http://youtu.be/MOvfn1p92_8
Ma con l'unreal engine precedente han fatto giochi che non sembrassero "pesanti"?In che senso?
timewarp! viaggetto indietro di 9 anni ed ecco cosa regalavano le tech demo:
http://www.youtube.com/watch?v=4ddJ1OKV63Q
timewarp! viaggetto indietro di 9 anni ed ecco cosa regalavano le tech demo:Quanta roba!
http://www.youtube.com/watch?v=4ddJ1OKV63Q
A parte gli smottamenti del terreno e farci credere che i Combine fossero intelligenti quanto i soldati di HL1 hanno deliverato tutto. :yes:
timewarp! viaggetto indietro di 9 anni ed ecco cosa regalavano le tech demo:Spettacolo.
http://www.youtube.com/watch?v=4ddJ1OKV63Q
Assolutamente. Anzi, mi stupisco di questa ricerca ossessiva della perfezione matematica quando anche nella CG alcune cose sono tranquillamente approssimate.l'approccio demo dovrebbe essere pragmatico per sua natura: ecco un scena completamente renderizzata in rt.
...sulla gtx 670 gira benissimo ad ultra@1080p
e' impressionante.
(http://img59.imageshack.us/img59/9815/immagine3vt.th.jpg) (http://imageshack.us/photo/my-images/59/immagine3vt.jpg/)
Teokrazia fa 10-11-12
Edit: Io con v-sync disattivato giro tra i 30 e i 45
in 3d tra i 16 e i 25
Ho particolarmente apprezzato lo switch utente per la para trollata. ^___^
Illuminazione spettacolare comunque, anche se mi dovranno chiamare quando riusciranno a rendere realistica anche l'illuminazione dei denti. Non ci si crede che siano ancora così plasticosi e piatti.
Che poi tutta quella tassellazione per un modello del genere è assolutamente inutile :DQuoto tutto.
Non c'è alcun dettaglio fisico rilevante, né nel volto, né nel corpo, tale da giustificare una tale massa di poligoni.
Fra l'altro, pure il modello della fatina della demo del 2002 era composta da centinaia di migliaia di tris (link (http://youtu.be/4D2meIv08rQ?hd=1&t=2m37s)). Piuttosto, è la resa della pelle a fare la vera differenza (sub-surface scattering?).
comunque ogni volta che si fa un confronto con sua santità naughty dog, si deve parlare sempre di trollata, uff.Ah ma era un confronto serio? O___o
peccato che l'illuminazione in questa tech demo è mostruosa. Va beh, siete già in assetto sony defense force, il comparison l'ho messo per far notare ancora di più il boost in termine poligonale. Scusate, sono sicuro che naughty dog è serena. State sereni pure voi.E quindi?
Che poi tutta quella tassellazione per un modello del genere è assolutamente inutile :D
Ah ma era un confronto serio? O___o
Ma che senso ha, scusa? Hardware diversi (PC - PS3) utilizzati per scopi diversi (tech demo - gioco).
Tra l'altro l'immagine mette in mostra le sole differenze nella mole poligonale, cosa che di suo non è più così determinante nelle scene da almeno un lustro.
[EDIT] Leggo ora l'ultima tua risposta, Darro. Si sta parlando tranquillamente, non è il caso di offendersi come una primadonna. Ti assicuro che pensavo fosse una trollata volontaria (anche per l'involontario cambio di utenza), mi hai fatto ridere di gusto, non ti arrabbiare. ^____^
Tra l'altro non mi è chiaro come funzioni la tecnologia nel determinare che dettagli aggiungere quando si va oltre il modello di riferimento.Non ho capito che intendi. Una volta creata la displacement map da un modello ultra dettagliato, è sufficiente un modello abbozzato; più il modello è in primo piano, più verrà tassellato; più sarà tassellato, più vertici verranno spostati dal displacement per aggiungere dettagli. No?
Cioè nel caso di una superficie liscia come la pelle è abbastanza ovvio, ma nel caso di superfici come terreni accidentati?
Son riusciti a rendere bello da vedere anche Minecraft:Beh, ora che Minecraft SHAFTA finalmente lo giocherà anche Cryu. :D
http://www.youtube.com/watch?feature=player_embedded&v=YFdhcdiWXb4
parte interessante a 2:04.
Durante il recente Siggraph Epic ha mostrato la tecnologia dietro all'Unreal Engine 4. Non sono riuscito a trovare documenti sul panelEccolo disponibile (per chi ci capisce qualcosa):
Riguardo invece la speranza di Dan, Wis e compagnia che tecnologie più avanzate riducano invece che moltiplicare i costi di sviluppo:Non credo che i costi si abbasseranno nella prossima gen.
- http://www.youtube.com/watch?v=MfJ4pA8ngDo&feature=relmfu
- http://www.youtube.com/watch?v=CvievLytmrs&feature=relmfu
Inoltre si parla di + poligoni = più oggetti da modellare/texturizzare. Più effetti da applicare nel caso di tecniche ex novo, abbandono totale della modellazione low poly che significa che non si potrà risparmiare tempo disegnando una bottiglia con le primitive, ecc.Mah, secondo me no. Per i modelli più importanti del gioco (personaggi in primis), non cambierà nulla, perché già ora si modellano in hi-poly. Quanto alle props, IMHO continueranno a essere modellate perlopiù nello stesso modo di prima, solo che le forme verranno ammorbidite automaticamente dal motore (si fa la bottiglia come prima, ma il motore gli fa in real-time il "turbosmooth"); fra l'altro, in molti casi, è possibile aggiungere dettagli direttamente andando a modificare la displacement map, senza passare per la modellazione. A ogni modo, con programmi come Zbrush e Mudbox, ormai la modellazione hi-poly è stata velocizzata di molto (oltre a raggiungere livelli qualitativi straordinari).
Tempi di sviluppo ridottiHai detto niente.
La chiave è tutta lì.
Fino ad ora la bottiglia la facevano con le primitive. Adesso va fatta con un modello relativamente hipoly, che se ti avvicini non puoi fare vedere la base ottagonale. E il latte dentro? Ci vuole qualche effetto di surface scattering, altrimenti sembra vernice. E i riflessi della luce sulla bottiglia o su qualunque oggetto di vetro? Nuovi effetti di illuminazione tipo caustic shading da implementare.Fatti sentire da un modellatore che usi le primitive per modellare una bottiglia.
Il punto del discorso è che imho non si può ragionare al futuro usando come metro di paragone metodologie attuali. Nel 1999 System Shock aveva 2-3 nemici ogni stanza, forse 2000 poligoni per frame, texture, shadow maps. Fu creato con Lightwave, Photoshop, Codewarrior e qualche altro software, su piattaforma Pentium.Non sono sicuro di capire quello che dici.
Per questo dico che da questo punto di vista le cose miglioreranno ancora un po'Ripeto: a te pare che in TLoU si siano risparmiati con gli assets? Pensi davvero che avrebbero voluto inserire più props di quante il motore gli permetteva? Ma soprattutto: aggiungere un centrino in più su un mobiletto, può fare la differenza in una stanza in cui passerai al massimo 30 secondi di gioco? :)
ma paradossalmente i tempi di sviluppo si allungheranno perché, felici e contenti
che la parte di workflow pura si sia semplificata, faranno giochi in cui il numero di
asset aumenterà esponenzialmente perché l'hardware te lo permette.
Ci sono tutt'ora giochi in cui per alcune stanze/porzioni di mappa ci si passa per 30 secondi (ed anche meno) e sono ricchissime di dettaglio.Come la sezione di inseguimento di Unchy3, in cui attraversi di corsa palazzi pieni di roba :)
Come la sezione di inseguimento di Unchy3, in cui attraversi di corsa palazzi pieni di roba :)Quella sezione c'ha un'opulenza che ti viene voglia di prendere roba da lì per donarla ai giochi più poveri.
Simulatori Soft body, il futuro della fisica??Si, il primo filmato già è stato postato tempo fa, devo leggere l'articolo che contiene aggiornamenti, anche se per ora è ancora un po' troppo gelatinoso il tutto, ma la base c'è.
I filmati sono impressionanti.
http://it.ign.com/feature/816/L-engine-fisico-pi-impressionante-mai-visto
Come la sezione di inseguimento di Unchy3, in cui attraversi di corsa palazzi pieni di roba :)Quella sezione c'ha un'opulenza che ti viene voglia di prendere roba da lì per donarla ai giochi più poveri.
Ste robe mi farebbero cambiare mobo e processore nel caso non fosse fluido nella mia config, un po' come le ultime demo dei Fairlight o Andromeda ^^ (per chi non conoscesse scarichi e provi queste ad esempio http://www.scene.org/file.php?id=592563 o ceasefire del 2010
http://www.scene.org/file.php?file=/parties/2010/assembly10/demo/ceasefire_all_fall_down_by_cncd_vs_fairlight.zip&fileinfo
Happiness, http://www.scene.org/file.php?file=/parties/2010/assembly10/demo/happiness_is_around_the_bend_by_andromeda_software_development.zip&fileinfo)
Dall'immagine si suppone che la somma del rendering sia 16,6 ms.
L'opaque ed il transparent sono i processi che pesano di piu' sulla gpu, che minchia sono/corrispondono? come fa il postprocess (occlusion+dof in teoria) a pesare meno?
Tutto il resto e' demandato alla cpu (fisica, particelle, geometrie).
grande... voglio, ora.
Provata la demo di Dawn.
Framerate al di sotto del concepibile (GTX 560 Ti OC, grazie Teo per la dritta) ma tanta roba davvero.
Tecnologia a bomba ma arte ancora un po' così, espressioni da bambola gonfiabile at best.
...prendi una 670 oc e vivi felice :)
Se volete girare anche a me la dritta sulla scheda in questione ve ne sarò grado, visto che ce l'ho uguale (560 Ti Hawk per l'esattezza).
La dritta è stata quella di acquistare la scheda. ^___^ma sei passato da una 5770 ad una geforce 560 ti?
Luminous Engine - Agni's Philosophy Tech Demo New Videos (http://www.allgamesbeta.com/2012/12/agnis-philosophy-tech-demo-new-videos.html)Vidi.
Su Twitter mi segnalano questo:that's the shit! un benchmark demo-scene oriented
http://vimeo.com/54077172
Download:
http://t.co/dhArZaaC
http://nvidia.fullviewmedia.com/siggraph2012/ondemand/SB134.htmlBeh, pare che tale caratteristica sia stata eliminata per l'impossibilità di farla girare decentemente sulle console nextgen e probabilmente anche sui pc ninja. In effetti la demo stava a stento sui 20fps anche su una 680GTX, e senza codice di gioco attorno.
allora aggiungo questo http://forum.unity3d.com/threads/166827-Voxel-Cone-Traced-Lighting-DX11-ContestAncora un po' di martellate ben assestate e Unity3D diventa il miglior game engine ;)
E' l'illuminazione globale dinamica che pare abbiano segato dall'ue4 perchè troppo pesante. A me fa 40 frame in 1200p.
Benchmark bellissimo. Possibile andare in free-cam, con controllo diretto su time of day, rain, clouds e wind.
Ci viene un photo contest da sturbo...
Unity invece sempre più uber, tra l'altro la licenza pro costa pure poco (1500$) ma non so se c'è qualche cavillo legato alle vendite tipo l'Unreal Engine (99$ per prodotti commerciali con ricavi fino a 50mila dollari, oltre si versa il 25% ad Epic). Chiedere al Tagliaferri.Finchè resti in ambito PC/Mac/Linux/Android/iOS con la versione PRO non ci sono cavilli legati alle vendite.
AMD Megaton?
http://www.eurogamer.it/articles/2013-02-25-news-videogiochi-amd-prepara-una-nuova-tecnologia-di-rendering
Bah, a me le differenze non sembrano così sostanziali, considerando chissà quale mostro di PC hanno usato per mostrare la demo originale e del presumibile poco tempo a disposizione per portare il motore su PS4, senza considerare che lavoravano su un devkit con metà della ram. Le innovazioni grafiche dell'UE4 li dentro ci sono tutte, meno evidenti ma ci sono.Un programmatore su Beyond3D ha detto che la ram dei devkit è addirittura di 1.5gb (dedicata al gioco)
AMD Megaton?Cross-news
http://www.eurogamer.it/articles/2013-02-25-news-videogiochi-amd-prepara-una-nuova-tecnologia-di-rendering
Its created by AMD, but its a DirectX 11 feature.. so GOOD DX11 cards should be able to play it, on both sides of the gaming fence.. I have a GTX680 and i run it lovely
(http://i50.tinypic.com/2na1wuu.jpg)Mi ha ricordato questo
Davvero, che ricordi.Più che altro, che immaginazione!:
http://www.youtube.com/watch?v=wIG2qM476vcah lol, volevo postarlo qui ma ho preferito il topic PS4 XD
https://www.youtube.com/watch?v=0JvDbyZrlHA
ah lol, volevo postarlo qui ma ho preferito il topic PS4 XD
http://www.youtube.com/watch?feature=player_embedded&v=pXZ33YoKu9wE' questo che voglio vedere nei VG futuri, la parte finale è strabiliante :yes:
Veramente bello.
Spero di vederne ulteriori sviluppi in futuro.
Certo è granuloso da morire, ma è un tipo di rendering che se riescono a farlo funzionare può smontare l'industria.Eh, se riescono. Perché quel video è illeggibile con quella grana.
http://www.youtube.com/watch?feature=player_embedded&v=pXZ33YoKu9w
Veramente bello.
Spero di vederne ulteriori sviluppi in futuro.
https://www.youtube.com/watch?v=ATU6IGCMpUATranne che i detriti non interagiscono con nulla. Le colonne, che sono la parte meno rigida, vengono giù solo quando colpite direttamente.
Molto bello e convincente sotto ogni aspetto. :yes:
Tranne che i detriti non interagiscono con nulla.
Le colonne, che sono la parte meno rigida, vengono giù solo quando colpite direttamente.
https://www.youtube.com/watch?v=ATU6IGCMpUAè molto scenico ma poco realistico, troppo leggero onestamente, mi piacerebbe vederelo con materiali davvero pesanti :yes:
Molto bello e convincente sotto ogni aspetto. :yes:
A parte rimbalzare in giro, bocciarsi tra di loro e accatastarsi tra di loro, senza smettere di essere entità fisiche, tra l'altro con cambi di accelerazione* che dovrebbero fare?Quello che fanno nella demo linkata sotto, ovvero interagire a loro volta con altri oggetti. Invece vedo blocchi grossi come un automobile che colpiscono le esili colonne senza fargli nulla (vedi sec. 18 in poi, parte destra del tempio).
ovvero interagire a loro volta con altri oggetti.
Invece vedo blocchi grossi come un automobile che colpiscono le esili colonne senza fargli nulla (vedi sec. 18 in poi, parte destra del tempio).
non la solita implementazione.
http://www.youtube.com/watch?v=l6R6N4Vy0nE&hd=1
per me quello di nvidia è avanti e nemmeno di poco, questo è da uncanny valley.quello di nvidia se la gioca tutta sulle millemila fonti di luce che girano intorno al modello, questo di Activision cerca di essere più fotorealistico (soprattutto nella colorazione della pelle) e meno videogiocoso, e ci riesce molto bene.
Questo di Activision vince :yes:cioè ma di brutto!
Questo di Activision vince :yes:cioè ma di brutto!
Unreal Engine 4, la vera Nextgen alla faccia dei campi di battaglia e delle zone di guerra
http://www.youtube.com/watch?v=kr2oHPSJ0m8
Comunque come ha detto teomiazia, i video showcase mi puzzano sempre un po'(no interazione e risorse che puoi distribuire come meglio credi), voglio poter muovere il mio pg ed essere dentro la scena.
Unreal Engine 4 - »Infiltrator« - Tech-Demo zur UE4 (http://www.youtube.com/watch?feature=player_embedded&v=kr2oHPSJ0m8)cit: "Deep down inside we all serve one master, one king, and his name is gaming! Forever may he reign!"
ahahahaha,lucidissimo teokrazia sull'unreal engine 3 fin dal 2007, bene inteso io ricordo che venivo dalla 360 e dal quel gow e mi fece lo scalpo proprio.Ma il TXAA è per caso un'evoluzione dell'FXAA?
http://www.geforce.com/whats-new/articles/infiltrator-gtx-680-powered-unreal-engine-4-tech-demo-unveiled
La demo gira su una 680, spettacolo, I'm ready :yes: considerando che c'è attivo di default pure il pesantissimo TXAA...Si viaggia sereni.
PS: sempre da quel topic, PROFETA Luv " Mi sembra che l'UE si sia rivelato alla fine una mezza sola, visto che l'hanno usato in quattro gatti con risultati tecnici deludenti. E se vogliono l'esclusiva dei prossimi giochi Epic basta che siglino degli accordi di produzione come con Gears of War." :D
Certo che se la next gen è l'Unreal Engine 4 (la dimostrazione simil Skyrim) non è che sia imprescindibile...il video di riferimento per l'UE4 non è il simil Skyrim ma Infiltrator
discorso diverso se la next gen è Deep Down ;D
"Biggest differences are SVOGI has been replaced with a more efficient GI solution, a slight scale down in the number of particles for some FX, and tessellation is broken on ps4 in the current build which the lava used for displacement. We will fix the tessellation in the future."
To clarify, it's our understanding that there won't be a real-time GI/Lightmass divide between PC and console in final UE4 games - we're looking at the pre-computed solution across all platforms.
Certo che se la next gen è l'Unreal Engine 4 (la dimostrazione simil Skyrim) non è che sia imprescindibile...il video di riferimento per l'UE4 non è il simil Skyrim ma Infiltrator
discorso diverso se la next gen è Deep Down ;D
http://www.youtube.com/watch?feature=player_embedded&v=kr2oHPSJ0m8
Comunque tecnicamente entrambe le demo sono tantissima roba, dal punto di vista meramente tecnico.
La diffusione della luce così complessa, materiali luminescenti o particellari d'un certo spessore, è roba che non si vede ancora tanto facilmente in questa generazione.
il video di riferimento per l'UE4 non è il simil Skyrim ma Infiltrator
http://www.youtube.com/watch?feature=player_embedded&v=kr2oHPSJ0m8
ma quando mai, intanto il cry engine 3 ce l'ha e anche il frostbyte con nomi diversi, poi l'unreal engine viene aggiornato spesso, non ci sono problemi ed epic non rimarrà indietro...non so il Frostbite, ma allo stato attuale il Cryengine 3 lo usa solo per il sole... per scelta, chiaro.
Ma per Unchy3 non è possibile che abbiano semplicemente usato una fonte di luce rosata per simulare l'effetto?in U2 ed U3 c'è tantissima illuminazione indiretta. Non è chiaramente in realtime ma "stampata" sulle texture.
Digital Foundry vs. the ultimate gaming PCIl mio sogno bagnato 'sto PC, lo ammetto :D
Three Titans. Six CPU cores. A generational leap beyond PlayStation 4? (http://www.eurogamer.net/articles/digitalfoundry-vs-the-ultimate-gaming-pc)
L'acqua è veramente pazzesca. Voglio un gioco, uno qualunque, che sfrutti liquidi realizzati in quel modo.un nuovo Waveracer bello come lo fu ai tempi su N64
no hydrophobia no
Visto che l'acqua è piaciuta, bissiamo:
http://youtu.be/F5KuP6qEuew
http://youtu.be/mgYztcjOvRQ
Non l'avevo ancora visto. Ok che l'ampiezza dell'ambiente è limitata, ma è spaventoso. O______o
Definisci "next gen", che ormai non si capisce più nulla. ^_____^
Unity + tette = ;D ;D ;D ;DUnity + tette + Oculus Rift = :yes: :yes: :yes:
Unity + tette + Oculus Rift = :yes: :yes: :yes:
Nessuno vuole essere un nerd.
http://www.youtube.com/watch?v=lhVO3L9tyfQUnity + tette = ;D ;D ;D ;DUnity + tette + Oculus Rift = :yes: :yes: :yes:
Mi sembrano megaminchiate entrambe.Quindi posso prendere tranquillamente una 280x e sbattermene le palle della PhysX :D?
G-sync ha un prezzo fuori scala, fuori di melone, 170€ per un dispositivo che sincronizza il segnale video con il refresh, a quel prezzo uno aggiunge una 660ti alla config e attiva il vsinc.
Gameworks invece è chiaramente la risposta sbagliata a Mantle, le librerie di questo tipo hanno sempre avuto vita breve altrimenti oggi tutti i giochi utilizzerebbero speedtree, physix, euphoria a manetta, mentre invece le SH preferiscono sviluppare internamente, con migliori costi, efficenza e versatilità.
Quindi posso prendere tranquillamente una 280x e sbattermene le palle della PhysX :D?
Sembra davvero figa questa 3.0 e non vorrei che con il primo gioco in U4 mi perdessi stò ben di Dio... d'altronde fino ad ora è sempre stata usata per cazzatelle ciucciarisorse.
Pessimi, vengono gestiti via hardware dalla CPU, risultando estremamente pesanti.
Ho letto che cmq le attivano anche su ati ma nn so con che risultati.
Review monitor con modulo Nvidia G-SyncBene bene, non vedo l'ora di mettere le mani su uno di questi monitor 😁
http://www.guru3d.com/articles_pages/nvidia_g_sync_review_guide,1.html
Io l'Asus della prova lo prenderei più per Lightboost ...Il Miglior monitor attuale con un sistema "lightboost-like" (questo monta una strobelight ed un interpolatore da 240hz!!) e' l'Eizo Foris FG2421, l'unico e primo monitor con pannello VA in grado di reggere quelle frequenze ( ...e 480 euro di target price)
Vero, attualmente ho il Foris FS2333 ed è un gran bel monitor :)Io l'Asus della prova lo prenderei più per Lightboost ...Il Miglior monitor attuale con un sistema "lightboost-like" (questo monta una strobelight ed un interpolatore da 240hz!!) e' l'Eizo Foris FG2421, l'unico e primo monitor con pannello VA in grado di reggere quelle frequenze ( ...e 480 euro di target price)
Un mostro, peccato non supporti G-Sync, senno' era natale.
Forse ho capito male, 240Hz interpolati che senso avrebbero?Solo una ipotesi, ma magari può averne per il montaggio di riprese a più di 200 frames al secondo.
Forse ho capito male, 240Hz interpolati che senso avrebbero?a ridurre gli effetti scia?
Snowdrop Engine @ GDC 2014 (https://www.youtube.com/watch?v=dQl4lV1C2fI)Jawdrop.
Ebbeh...
niente di sconvolgente?Nei motori multicore ma con grossi colli di bottiglia tipo Rome 2 ma anche Arma 3, è una manna dal cielo.edit: e non ho misurato.. bf4 mi va a 90 fps con le impostazioni che uso io, anche se fosse passato a 100/110 non saprei distinguerlo.
niente di sconvolgente?Nei motori multicore ma con grossi colli di bottiglia tipo Rome 2 ma anche Arma 3, è una manna dal cielo. Io ho qualche problemino di crash con questi beta, ma ora li reinstallo. Ci sono già i bench, per Battlefield 4 e Rome 2 c'è un guadagno di una trentina di frame in media, hai detto "niente di sconvolgente" X°D più che altro fa rodere il culo che se non si muoveva AMD, nvidia se ne sbatteva le scatole. Un po' come in ambito cpu siamo sostanzialmente fermi al 2011.Azz... devo vedere se guadagno qualcosa sul PC scrauso, ecco le specsss:
PS: in star swarm che è lo scenario perfetto da benchmark, io ho avuto un incremento esponenziale, da minimi di 12 13, sono passato a minimi di 35 40 per dire.
al contrario, questi driver come scrivevo prima avvantaggiano maggiormente proprio le cpu meno performanti. dark side of gaming ha effettuato dei test con il Q9650 che è un pò più potente del q6600, ed i vantaggi sono stati abbastanza sostanzionsi in alcuni titoli ( + 7-10 fps in battlefield 4 e sleeping dogs ). i test di tom's hardware (effettuati su un Core i7-4770K.) mostrano guadagni importanti ma in titoli estremamente cpu bound (nello specifico hanno testato star swarm), i guadagni in titoli più gpu bound come battlefield 4 sono di gran lunga meno massicci. http://www.tomshw.it/cont/news/geforce-337-50-beta-per-migliori-prestazioni-ecco-la-prova/55052/1.htmlBeh, sul pc Nvidia gioco praticamente solo a BF4, indi 7-10 fps in più sarebbero stragraditi.
tech demo installer dell'UnrealEngine 4
scaldate le vostre gpu su..
http://www.guru3d.com/files_details/unreal_engine_4_elemental_tech_demo_download.html
Ci sono in giro altre demo una più impressionante dell'altra, ma forse per quelle bisogna comprare la licenza UE... sempre runnable sotto windows? in qualche modo si potra' pure recuperarle ^^
E' la versione che hanno mostrato anche per PS4, quindi con il nuovo motore di illuminazione e altre cosucce varie, ma non è la prima versione SVOGI uberfiga infatti gira senza troppi problemi in 4k con schede di fascia alta.
Discretamente impressionanti, ma l'Elemental che ho scaricato io secondo me fa partire un filmato precalcolato, non è in tempo reale. Dico questo perché:
1) il framerate non cambia sia che aumento a paletta la risoluzione o la riduco
2) dovrebbe essere possibile abilitare qualche dato in più con alcuni trigger al lancio ma non funzionano
3) il video skippa qualche frame SEMPRE nello stesso identico punto, ma per il resto gira a 30 frame spaccati (e per il mio pc mi pare pure troppo)
4) il video mi sembra leggermente blurrato
[/Script/Engine.Engine]
bSmoothFrameRate=false
MinSmoothedFrameRate=0
MaxSmoothedFrameRate=0
WAT incoming in 3.2.1...
sul discorso relativo al sense of wonder mi trovo in parte d'accordo, ma questo risente molto di aspettative che possono variare molto da soggetto a soggetto e del fatto che comunque passi in avanti clamorosi come il passaggio dal flat shading al texture mapping (per citarne uno), non ci saranno probabilmente mai più, almeno fino al prossimo big step che sarà si spera il ray tracing in tempo reale. L'ue 4 comunque nasce per essere un middleware multiformato, in un mercato trainato dalle console, stento quindi a considerarlo come l'alfiere del progresso tecnologico, il suo obiettivo è chiaramente offrire un'ambiente di sviluppo semplice e completo con garanzie di ottenere buoni risultati in maniera uniforme su tutte le piattaforme, per capirci l'obiettivo non è certo l'ottenere il massimo dalle architetture pc odierne l'eliminazione del sistema SVOGI per la global illumination dovrebbe essere piuttosto eloquente in tal senso.
-------------------------
Detto questo ho catturato alcuni frames da queste demo per analizzarle con il software di debug dell intel (GPA frame analyzer), per capire un pò più in profondità cosa muove questo motore, e indubbiamente ci sono elementi che se realmente finissero sui nostri monitor nei titoli retail ci renderebbero molto felici, la demo temple è il trionfo della global illumination e dei materiali physycaly-based (notevoli le hdr reflections, spero di vederle spesso nelle produzioni di questa gen) elemental e cave presentano camionate di particellari con buffer in alta definizione, moltissime textures a 2048x2048 quindi adeguate al futuro standard 4k, e poi tanti render target multipli per una resa dei materiali sempre più convincente. Insomma stiamo a vedere poi quanto di questo ben di Dio finirà poi nelle produzioni che troveremo realmente sugli scaffali, allora capiremo se il bicchiere è mezzo pieno o mezzo vuoto.
(http://s28.postimg.org/v5kccv4pl/Immagine2.jpg) (http://postimg.org/image/v5kccv4pl/)
(http://s3.postimg.org/7lmxhk7qn/Immagine.jpg) (http://postimg.org/image/7lmxhk7qn/)
avevo trovato anch'io quel link, ma il file non esiste piu' ^^
.... (una volta con le lightmaps, un'altra volta con la GI dinamica?), e quindi di fatto si andrà di illuminazione pre baked ancora a lungo, FUCK YEAH NEXTGEN!! 8)...ma infatti le cose simpatiche non le vedremo sugli engine multipurpose licence-based come l'unreal engine, il cui target principale e' appunto quello di essere scalabili, versatili e vendibili.
un utente di neogaf faceva notare come sommando i vari lag a partire dall'occhio per arrivare allo schermo, la differenza tra 60fps e 30fps è talmente trascurabile che la scelta dell'uno o dell'altro é solo un vezzo grafico.Hai poi aggiunto anche un "/joke" a fine post?
Non ho mai avuto la fortuna di provare un monitor a 120hz, ma leggo di differenze talmente marcate rispetto ai 60hz, da rendere addirittura fastidioso il ritorno al vecchio standard.Io avevo un vecchio monitor Sony CRT che andava a frequenze assurde. La Voodoo 2 usciva anche a 120Hz così giocavo a quella frequenza. Erano i tempi di Quake 2, Half Life e Unreal.
Forse sono un pelo OT, ma ho scoperto da poco che la funzione "Shadow Play" delle Nvidia serie 6xx permette, in qualunque momento, di salvare su disco una quantità custom di minuti di giocato appena trascorsi, tutti a 1080p@60fps e senza impattare sulle prestazioni.Yep, per i giocatori che fanno numeri è una gran cosa, avendo ATi rosicavo duro nel non avere SP, ma per fortuna è arrivato MSI Afterburner (http://event.msi.com/vga/afterburner/download.htm)in soccorso che fa la stessa cosa, con questo puoi anche decidere di sfruttare la RAM per immagazinare i dati registrati in loop.
Cioè, Shadow Play l'avevo già usato per fare registrazioni alla bisogna, ma non sapevo che registrasse in continuazione in background senza impatti evidenti sul framerate.
Prima di Shadowplay utilizzavo anche io Fraps (prima) e MSI (dopo), ma le prestazioni sono notevolmente superiori con questo. Con MSI se provavo a registrare a 1080@60 il framerate andava a banane.Ah beh certo, SP va meglio perchè sfrutta la schedavideo, però con un PC abbastanza potente cerchi ci compensare.
http://it.ign.com/bravely-default-flying-fairy-3ds/80650/video/mizuchi-una-demo-tecnica-per-silicon-studioQui dal canale ufficiale YT del Silicon Studio (si vede meglio)
Tech demo del motore grafico sviluppato dal team di Bravely Default.
ahh la fisica, la fisica.che meraviglia :yes:
https://www.youtube.com/watch?v=1o0Nuq71gI4#t=73
Io con acqua del genere starei mesi solo a giocare con una demo di paperelle.Yep, su altri aspetti c'è ancora da lavorare, ma l'acqua è impressionante, la schiumetta che esce fuori è :Q____
Ma questo Flex necessiterà di hardware nuovo o girerà anche sulle vecchie?
Unreal Engine 4 is now available to everyone for free, and all future updates will be free! (https://www.unrealengine.com/blog/ue4-is-free)Tanta roba... speriamo Unity faccia una mossa simile, perché a me per l'upgrade dalla 4.6 pro alla 5 fanno pagare 500€
Tanta roba... speriamo Unity faccia una mossa simile, perché a me per l'upgrade dalla 4.6 pro alla 5 fanno pagare 500€https://www.youtube.com/watch?v=N8Ao5oyflik
eh, Epic sta correndo ai ripari perché in pochissimi si stanno inculando il nuovo engine, sono tutti su unity.io per ora resto con Unity, ma ho giocato un po' con UE4 quando veniva 19€ al mese, e se avessi il tempo
Che spettacolo la foresta e la casa.Non c'è bisogno di aspettare, imho questa foresta è molto meglio, sicuramente più fotorealistica di quella in UE4:
Fotorealistiche quasi, la foresta viva e pulsante. Chissa quanti decenni ci vorranno per avere vg così?!? :D
oh beh, unity5 è arrivato... :)e si sono parati subito il culo mettendolo Free completo con poche limitazioni.
http://unity3d.com/get-unity
Un gran passo in avanti rispetto al passato, poco ma sicuro.
Unity 5 - The Blacksmith - GDC 2015 (https://www.youtube.com/watch?v=pXWAsayTFTo)
Unity 5 Highlight Reel GDC 2015 (https://www.youtube.com/watch?v=Sxg_m3Qsnik)
Figata sti tour, ora voglio i giochini però..Peccato che ci sia sempre st'effetto vaselina abbastanza orrendo a vedersi, stì AA stanno facendo solo disastri ultimamente.
Effetto vaselina, sarebbe?L'immagine è impastata, c'è una sorta di FXAA molesto che non restituisce un'immagine nitida, pare quasi upscalato :/
Sorcio 2, mostrassero qualcosa però.Half Life Source 2
Di sicuro questo significa che ci stanno sviluppando sopra qualcosa.
Si tratta di una scheda video dotata di ben 12 GB di RAM e di otto miliardi di transistor. Ulteriori dettagli in arrivo.
CRYENGINE Tech Showcase Trailer GDC 2015 (https://www.youtube.com/watch?v=L_wAnLxtmZ0)Stavo proprio per postare chiedendomi che stessero combinando in Crytek, che dopo la perdita di elementi chiave nello sviluppo dell'engine e la figuraccia Homefront se ne erano perse le tracce. Peccato perchè certe soluzioni adottate nei motori recenti erano già state implementate anni fa sul CE.
NVIDIA HA PRESENTATO TITAN X, LA SCHEDA VIDEO PIÙ POTENTE AL MONDO (http://multiplayer.it/notizie/146248-nvidia-ha-presentato-titan-x-la-scheda-video-piu-potente-al-mondo.html)CitazioneSi tratta di una scheda video dotata di ben 12 GB di RAM e di otto miliardi di transistor. Ulteriori dettagli in arrivo.
(http://images.multiplayer.it/thumbs/images/2015/03/04/vcwsdcfjq_im_jpg_0x0_q85.jpg)
rotfl
Lo so, sta succedendo pure a me. Ho sempre guardato con invidia i tool che metteva a disposizione l'UE, e quando finalmente lo hanno passato a free, ho voluto dargli una possibilità. Non lo avessi fatto.Spoiler (click to show/hide)
Ma sei un programmatore Ray?è quello che faccio di mestiere ma purtroppo non più videogiochi da secoli.
Amd, secondo i rumors la O390x (Fiji) avrà a un chip a 20nm e raffreddamento a liquido di serie, sarà quasi certamente presentata durante la gdc.I 20nm li saltano tutti per problemi di costi.
Lo so, sta succedendo pure a me. Ho sempre guardato con invidia i tool che metteva a disposizione l'UE, e quando finalmente lo hanno passato a free, ho voluto dargli una possibilità. Non lo avessi fatto.ahahahahah si Unity sa essere pedante a volte!
Per ricreare la stessa scena (ho usato gli stessi modelli e texture), su UE ho impiegato meno della metà del tempo.. niente casini con i rigidbody, la gravità che finalmente si comporta da gravità, niente "Apply" non cliccati nei prefab ( :whistle: lo so è colpa mia, ma anche unity ci mette il suo), e la resa grafica è sicuramente superiore.. e oltretutto non ho scritto una sola riga per il playerMovement, tutto comodo via blueprint.
Diciamo che pur avendolo visto da neanche una settimana mi sembra più adatto ai miei scopi rispetto all'intricato unity, e lo dico con dispiacere, perché le ossa me le sono essenzialmente fatte con unity e la fenomenale community che si porta alle spalle.
In ogni caso il 5 per cento degli utili per ogni gioco che vende più di 10 copie, non è neanche poco. Se si considera che già a metterlo su steam, sony, sarcazzo se ne va già un terzo. Se te lo devi fare pure distribuire da qualcuno ciao.Darro, il 5% a trimestre è praticamente niente. Il source2 deve ancora uscire e bisogna vedere quanto sarà complesso svilupparci sopra
La strategia di Valve potenzialmente è quella migliore e più allettante per gli sviluppatori, ovvero l'unica richiesta è che il gioco esca anche su Steam, per il resto nessun balzello. Forza Source 2. :yes:
Anche dalle versioni OEM dismesse come la Home edition?a me hanno detto qualunque versione, ed avrai un anno di tempo per passare a Windows 10 in maniera gratuita. Basta avere un codice di attivazione valido Windows 7.
Ma "solo per un anno" nel senso che se lo fai subito è gratis per sempre, oppure tra un anno bisogna pagarlo?
Certo che tra programmatori, sviluppatori indie, gente che lavora in milestone le premesse per aprire un topic dedicato alla programmazione di vg ci sono tutte, che ne dite? :)
[o magari un topic simile c'è già e me lo sono fumato]
Se è interagibile il giusto per me è già GOTY. :Dahahahah come i bambini, quando vede l'acqua dai una paperella a Wis e lo fai felice :D
Direi che è più un link da questo (http://www.tfpforum.it/index.php?topic=22836.45).
Se è interagibile il giusto per me è già GOTY. :Dprovato, e' interagibile nella misura piu' didattica del termine.
Siamo affascinati dalla possibilità di constatare se le DX12 possano fare la differenza.Direi che la frase riassume bene l'articolo.
Unreal Engine 4 Elemental Tech Demo DX12Meh, tra l'altro leggo che se si scarica la scena sull'engine e si starta da lì tutte le varie fisiche sono fatte in bake quindi non calcolate in tempo reale ma solo renderizzate. Non so se è vero eh, nel caso un pochino lol come tech demo.
http://www.guru3d.com/news-story/unreal-engine-4-elemental-tech-demo-dx12.html
Divertitevi : ).
Purtroppo non è in tempo reale. Anzi, sospetto che non si sia nemmeno prossimi al conseguimento di qualcosa che ci si avvicini.Si, c'entra poco coi VG ma valeva cmq la pena mostrarvelo ^^
Spettacolo, comunque.
E' una cosa pazzesca. Pare realtà.
Quando si arriverà a questo in VR saremo chiaramente spinti ad abbandonare la nostra vera vita.
Roba grossissima.
Chissa' quando potremmo vedere un gioco completo a questi livelli.
L'ho visto qualche giorno fa, si parla di engine ma non nuovi.
Se vi siete mai chiesti cosa significasse la dicitura "sprite distorti" dei poligoni del Saturn, ora dovrebbe essere più chiaro.
https://youtu.be/VutzIK3DqZE?t=216
https://youtu.be/GCICGJhfjM0Cristo :I
A me fa più paura questo... a parte il pezzettino centrale (che non ho capito) direi senza indugio che è un essere umano. :scared:
PS: a proposito di non capire però, non mi è chiaro se sia in tempo reale, non ho approfondito
ecco Vicon in real time...https://youtu.be/GCICGJhfjM0Cristo :I
A me fa più paura questo... a parte il pezzettino centrale (che non ho capito) direi senza indugio che è un essere umano. :scared:
PS: a proposito di non capire però, non mi è chiaro se sia in tempo reale, non ho approfondito
Interessante articolo di DF Retro sul rendering dell'acqua nei videogiochi
https://youtu.be/V4MMlKhJfGI
Interessante articolo di DF Retro sul rendering dell'acqua nei videogiochi
https://youtu.be/V4MMlKhJfGI
Possono metterci tutti gli effettini e riflessi del mondo, quando la direzione artistica non ce la fa, non ce la fa = 'mmazza che brutto :evil:
Uffa, io volevo cambiare scheda ma non ha molto senso prenderne una 2060 ora al prezzo di una 3060 che uscirà tra quattro mesi.La 3060 se tanto mi da tanto sarà una scheda da 15tflops. (la 2060 fatica ad arrivare a 8. )
O forse sì?
Cosa centra il discorso prezzo/performance in questo contesto.Beh il tuo primo post paragona le nuove console alle schede no?
Mi aggancio ad una considerazione di Teo: un mercato che dovrebbe sempre tirare avanti con la tecnologia foriera sopratutto di innovazione come dovrebbe essere quello dei vg viene sistematicamente frenato da tecnologie che già dal d1 risultano obsolete o scarsamente sfruttate (stiamo veramente ancora parlando di 30fps? Di Ubisoftate in 4k?)Ci sono due aspetti da tener conto.
Beh ma tutto si rifà ad un discorso di prezzo no?
Quante rtx 3090 o 3080 saranno vendute?
Bene o male ps/ xbox faranno 150 milioni di venduto a fine ciclo, e questo perché costano “poco”.
Se ipoteticamente non esistessero le console, in che modo il gaming su pc ne potrebbe trarre vantaggio?
Le mie sono solo considerazioni scevre da giudizio, sappiamo benissimo che una console è limitata dal suo costo finale.Mi aggancio ad una considerazione di Teo: un mercato che dovrebbe sempre tirare avanti con la tecnologia foriera sopratutto di innovazione come dovrebbe essere quello dei vg viene sistematicamente frenato da tecnologie che già dal d1 risultano obsolete o scarsamente sfruttate (stiamo veramente ancora parlando di 30fps? Di Ubisoftate in 4k?)Ci sono due aspetti da tener conto.
- il tempo di progettazione della console.
- quando la progetti sei vincolato al costo finito del prodotto altrimenti non te la prende nessuno.
È normale che si debba scendere a compromessi.
aspettando Big Navi
Positivo se usciranno giochi che li sfrutteranno per davvero
Io ho come l'impressione che di punto in bianco i terafloppoli spariranno per un bel po' dai radar dei PR.
Positivo se usciranno giochi che li sfrutteranno per davvero
Quelli escono. Sicuro.
Se uno ha il palato per i 120/144/240Hz, anche con Tripla A esosi, o gli 8K, è servito.
D'altronde è un prodotto super-enthusiast.Io ho come l'impressione che di punto in bianco i terafloppoli spariranno per un bel po' dai radar dei PR.
:D
Grazie anche per questo, nVidia.
Io punto al 1080p almeno per qualche anno
Sto cercando troppo spesso con google samsung G7 odyssey. Mi sa che devo fermarmi.Io punto al 1080p almeno per qualche anno
Same.
Fin quando non mi schiatta il monitor. :yes:
Poi, verosimilmente, passerò a un 1440p, 144Hz, HDR fatto a modo & tricche tracche.
..
oled48cx6lb
Il resto secondo me è tutta rumenta, con vari gradi di incrostazione ostinata.
No, spé, in quest'ultimo caso ne era valsa la pena (https://youtu.be/kA7qNIsRt34)].
Sulla carta la serie 3000 mi stuzzica l'appetito per una nuova era gaming. Prezzo/prestazioni potrebbero aumentare il numero di videogiocatori PC e magari si alza pure l'asticella di interesse di aziende produttrici di vg. Quindi una maggiore cura e, sognando, qualche titolo in esclusiva. Perché spero che le console diventino meno responsabili delle conversazioni PC.
A me di altissime risoluzioni importa poco, quindi spero che ad un migliore aspetto visivo e framerate si affiancherà l' evoluzione di nuovi motori grafici che diano un plus ai giochi in termini pratici e non solo per gli occhi.
Comunque, per me, con calma rimango in finestra.....
Il tv usato da nvidia per la 3090Tech whore a livelli stratosferici oled LG 8k + 3090 (supporterà SLI? 8k a >100 fps solo per avere il cap 60 assicurato).
https://www.forbes.com/sites/johnarcher/2020/09/01/lg-announces-first-oled-tvs-with-nvidia-geforce-rtx-30-series-support/#6d6d19752d8d
Quello con Hitler e' un centro perfetto :DSi, la parte finale su Flight Simulator mi ha fatto piangere :D
In attesa di veri approfondimenti.
Quello con Hitler e' un centro perfetto :DSi, la parte finale su Flight Simulator mi ha fatto piangere :D
Io leggo voi ricchi con distacco e aspetto sereno la 3060 a 400€ (a rate). :D
Ah, per la cronaca, sui mercatini puoi portarti a casa una scheda da 1300 euri, pressappoco a questo prezzo.Che assorbe come una lavatrice, non supporta RT e ha prestazioni inferiori a una serie 3000.
just sayin'
A 400 non trovi una 2080 nemmeno rotta.https://www.hwupgrade.it/forum/showthread.php?t=2920867
E in ogni caso dovrei cambiare anche alimentatore, quindi nein.
Uhm... ho fatto due calcoli sull’assorbimento e dovrei starci anche con una 2080 cloccata come quella che hai postato.muoviti, l'ha abbassata a 350...
Quasi quasi...
Ci sono quasi, ma il tizio è abbastanza farfalloso. U_____Upovero continua ad abbassare, stanno crollando male ste schede serie 20xx
Ci sono quasi, ma il tizio è abbastanza farfalloso. U_____U
Vabbè, mi toccherà spendere comunque sui 400€. Una Trio X Gaming li vale secondo voi o aspetto altre offerte?no, ho rifiutato una controproposta a 380 per una Zotac 2080 Super, max valgono le 350 le super.
Implicazioni in che senso?
A sproposito, domani è il giorno delle cpu con gli orecchini di perla : ].basta che siano compatibili con socket attuale e chipset x570...
A sproposito, domani è il giorno delle cpu con gli orecchini di perla : ].basta che siano compatibili con socket attuale e chipset x570...
Non credo proprio, resterà un orpello in questa gen di console, figuriamoci.
A investire sul ray tracing sarà sempre mamma nvidia, e speriamo lo faccia di più a questo giro, il video di Cyberpunk è una bella botta in questo senso...
Non lo so, una volta un saggio mi disse, piuttosto mangia merda una settimana, e con quello che hai risparmiato prenditi lo stesso una Nvidia. :hurt: Per me è una questione di fiducia e fidelizzazione negli anni, non lo nego, ma è un'azienda che continua a investire duro su tecnologia per videogiocatori, pensa al low latency mode, il dlss, e chiaramente al ray tracing.
@teokrazia
E G-Sync scam più glorificato di sempre. Lo dico dal day one.
Volesse davvero del 'bene', quelle tecnologie le renderebbe open. E a quel punto sì che la cosa si farebbe interessante.un po' di confusione.
...
Stiamo parlando di RTX nvidia, ovviamente : ). Che in realtà è una branca proprietaria del DXR Microsoft. Quello che teoricamente ha più possibilità di affermarsi, proprio perché svincolato da logiche strettamente commerciali.Volesse davvero del 'bene', quelle tecnologie le renderebbe open. E a quel punto sì che la cosa si farebbe interessante.un po' di confusione.
...
Raytracing e' un isieme di algoritmi piu' o meno efficienti che vengono supportati via software ed integrati nelle API grafiche dei piu' comuni driver (Direct X, Vulkan, Cuda, OpenGL, etc etc)
Il fatto che Nvidia acceleri il RT con Cuda/tensors ad hoc e' un DETTAGLIO di architettura, non centra nulla con Open/non Open.
Raytracing e' open in quanto viene eseguito da algoritmi matematici di libero dominio (e anche molto banali, per quanto pesantissimi).
Ci sono demo per l'Amiga in raytracing ed il metodo lanciato per il calcolo pbp (chesso' dispatchrays) immagino sia lo stesso identico che utilizzano per Cyberpunk.
Raytracing puo' essere calcolato anche dal cellulare che abbiamo in mano, via software... solo molto lentamente rispetto ad una RTX 3090 che dedica 10496 cuda cores per il calcolo distribuito di quegli algoritmi.
DXR non e' proprieta' di Nvidia, ma di Microsoft ed e' inclusa dalle DirectX 12 mi pare. (specifiche funzionali totalmente open, GitHub (https://github.com/microsoft/DirectX-Specs/blob/master/d3d/Raytracing.md) dal quale si possono leggere tutte le specifiche Tier 1.1 delle API Microsoft con i metodi D3D12_*)Stiamo parlando di RTX nvidia, ovviamente : ). Che in realtà è una branca proprietaria del DXR Microsoft..Volesse davvero del 'bene', quelle tecnologie le renderebbe open. E a quel punto sì che la cosa si farebbe interessante.un po' di confusione.
...
Raytracing e' un isieme di algoritmi piu' o meno efficienti che vengono supportati via software ed integrati nelle API grafiche dei piu' comuni driver (Direct X, Vulkan, Cuda, OpenGL, etc etc)
Il fatto che Nvidia acceleri il RT con Cuda/tensors ad hoc e' un DETTAGLIO di architettura, non centra nulla con Open/non Open.
Raytracing e' open in quanto viene eseguito da algoritmi matematici di libero dominio (e anche molto banali, per quanto pesantissimi).
Ci sono demo per l'Amiga in raytracing ed il metodo lanciato per il calcolo pbp (chesso' dispatchrays) immagino sia lo stesso identico che utilizzano per Cyberpunk.
Raytracing puo' essere calcolato anche dal cellulare che abbiamo in mano, via software... solo molto lentamente rispetto ad una RTX 3090 che dedica 10496 cuda cores per il calcolo distribuito di quegli algoritmi.
Sul dlss, sono scettico io stesdo. Ma bisogna vederlo in azione per pronunciarsi.A investire sul ray tracing sarà sempre mamma nvidia, e speriamo lo faccia di più a questo giro, il video di Cyberpunk è una bella botta in questo senso...
Non lo so, una volta un saggio mi disse, piuttosto mangia merda una settimana, e con quello che hai risparmiato prenditi lo stesso una Nvidia. :hurt: Per me è una questione di fiducia e fidelizzazione negli anni, non lo nego, ma è un'azienda che continua a investire duro su tecnologia per videogiocatori, pensa al low latency mode, il dlss, e chiaramente al ray tracing.
@teokrazia
<3
L'hype sul DLSS, di cui a questo punto parla anche mia zia che non sa andare oltre il canale 8 della TV, non lo capisco. Se non mi perso dei pezzi [ma è probabile] è tutt'ora implementato in una stretta cerchia titoli, di cui in maniera degna di nota la metà se è tanto, e non credo abbiano fatto annunci concreti che lascino supporre una sua implementazione a tappeto. Ma gheim' cengiar'!1!
E G-Sync scam più glorificato di sempre. Lo dico dal day one.
Per il resto cuoricione.
Stiamo uscendo da una gen in cui i due hardware console più spessi, attorno a cui erano sviluppati tutti gli AAA, gli AA e le A e anche un po' di B, C e D, avevano GPU AMD. Se andavi con nVidia ti moriva la scheda grafica nel case. Poi si è visto chi ha giocato meglio, dal primo all'ultimo giorno della generazione.
Popcorn per come andrà nella prossima.
È praticamente la prima cosa che han detto alla gdc 2018, nella presentazione...DXR non e' proprieta' di Nvidia, ma di Microsoft ed e' inclusa dalle DirectX 12 mi pare. (specifiche funzionali totalmente open, GitHub (https://github.com/microsoft/DirectX-Specs/blob/master/d3d/Raytracing.md) dal quale si possono leggere tutte le specifiche Tier 1.1 delle API Microsoft con i metodi D3D12_*)Stiamo parlando di RTX nvidia, ovviamente : ). Che in realtà è una branca proprietaria del DXR Microsoft..Volesse davvero del 'bene', quelle tecnologie le renderebbe open. E a quel punto sì che la cosa si farebbe interessante.un po' di confusione.
...
Raytracing e' un isieme di algoritmi piu' o meno efficienti che vengono supportati via software ed integrati nelle API grafiche dei piu' comuni driver (Direct X, Vulkan, Cuda, OpenGL, etc etc)
Il fatto che Nvidia acceleri il RT con Cuda/tensors ad hoc e' un DETTAGLIO di architettura, non centra nulla con Open/non Open.
Raytracing e' open in quanto viene eseguito da algoritmi matematici di libero dominio (e anche molto banali, per quanto pesantissimi).
Ci sono demo per l'Amiga in raytracing ed il metodo lanciato per il calcolo pbp (chesso' dispatchrays) immagino sia lo stesso identico che utilizzano per Cyberpunk.
Raytracing puo' essere calcolato anche dal cellulare che abbiamo in mano, via software... solo molto lentamente rispetto ad una RTX 3090 che dedica 10496 cuda cores per il calcolo distribuito di quegli algoritmi.
Nvidia ha solo "sverginato" DXR una decina di anni fa con una partnership tecnologica per testare quanto poi si sarebbe visto con RTX serie1.
Se non e' cosi' (cioe' che sia proprieta' di nvidia una qualche componente DXR) ti prego di citare le fonti.
L'hype sul DLSS, di cui a questo punto parla anche mia zia che non sa andare oltre il canale 8 della TV, non lo capisco. Se non mi perso dei pezzi [ma è probabile] è tutt'ora implementato in una stretta cerchia titoli, di cui in maniera degna di nota la metà se è tanto, e non credo abbiano fatto annunci concreti che lascino supporre una sua implementazione a tappeto. Ma gheim' cengiar'!1!L'attuale gen console l'ho seguita a mozzichi, ma non vissuta. Stai dicendo che Nvidia offre troppo e di ciò ne viene sfruttata una parte?
E G-Sync scam più glorificato di sempre. Lo dico dal day one.
Per il resto cuoricione.
Stiamo uscendo da una gen in cui i due hardware console più spessi, attorno a cui erano sviluppati tutti gli AAA, gli AA e le A e anche un po' di B, C e D, avevano GPU AMD. Se andavi con nVidia ti moriva la scheda grafica nel case. Poi si è visto chi ha giocato meglio, dal primo all'ultimo giorno della generazione.
Popcorn per come andrà nella prossima.
...
È praticamente la prima cosa che han detto alla gdc 2018, nella presentazione...
RTX is essentially NVIDIA's DXR backend implementation
https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later
Eh ni, non è solo nomenclatura ^^....
È praticamente la prima cosa che han detto alla gdc 2018, nella presentazione...
RTX is essentially NVIDIA's DXR backend implementation
https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later
ah ok, ma e' un discorso diverso per proprieta' intellettuale sul nome DXR.
Infatti tipo il giorno dopo che il Tier 1.1 di DXR e' stato messo nelle DirectX 12 hanno subito fatto gli gli sboroni (https://www.nvidia.com/en-us/geforce/news/geforce-gtx-ray-tracing-coming-soon/). (a costo zero) dicendo che to guarda caso, siamo compatibili proprio con DXR.
vecio, stiamo dicendo le stesse cose. Uno ha aiutato l'altro (nvidia e ms).Eh ni, non è solo nomenclatura ^^....
È praticamente la prima cosa che han detto alla gdc 2018, nella presentazione...
RTX is essentially NVIDIA's DXR backend implementation
https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later
ah ok, ma e' un discorso diverso per proprieta' intellettuale sul nome DXR.
Infatti tipo il giorno dopo che il Tier 1.1 di DXR e' stato messo nelle DirectX 12 hanno subito fatto gli gli sboroni (https://www.nvidia.com/en-us/geforce/news/geforce-gtx-ray-tracing-coming-soon/). (a costo zero) dicendo che to guarda caso, siamo compatibili proprio con DXR.
Dxr è parte integrante dello stack rtx! Se vai sulle kb nvidia di sviluppo (pubbliche), vedrai che le directx sono una costante.
D'altronde in ambiente Windows come altro potrebbe essere? : )
Poi il G-Sync VIP, con monitor ultra-costosissimi (manco so se ne sono usciti, mi rifiuto di controllare), il cui vantaggio sarebbe quello di funzionare anche a 30 fps e sotto. Certo, mi compro un monitor da 144 Hz/240 Hz per giocare a 40-50 fps.
Sono comunque cose testimoniate anche da gente che ha monitor G-Sync
Problemi dei giochi, non dei pannelli : ).
contro gli stutter pesanti non c'è nulla da fare anche per il Gsync più raffinato.
contro gli stutter pesanti non c'è nulla da fare anche per il Gsync più raffinato.
Più che pesanti, stutter non inerenti alla filiera gpu > monitor.
Quindi derivanti da altre componenti, cpu, storage, o bug del software per l'appunto.
- Attivare il G-Sync solo a schermo intero, essendo certi che le applicazioni supportino l'exclusive fullscreen (i più cagacazzi sono i giochi Unity, in caso negativo aggiungete "-window-mode exclusive" nelle opzioni di lancio).
Se si imposta un framecap serve comunque attivare il V-Sync?
Io ho praticamente sempre usato solo V-Sync. In DiRT Rally 2.0 non ho mai avuto linee di tearing.- Attivare il G-Sync solo a schermo intero, essendo certi che le applicazioni supportino l'exclusive fullscreen (i più cagacazzi sono i giochi Unity, in caso negativo aggiungete "-window-mode exclusive" nelle opzioni di lancio).
art of rally è programmato in Unity, infatti, e inizialmente ho risolto proprio con il framecap ingame (poi alzando le impostazioni in maniera tale da rimanere in un range ottimale).
Ho l'impressione che abbiam perso un attimo il focus sul perché gsync sia stato menzionato, ma bene comunque :').La prossima volta ti mando il post in privato così me lo approvi :yes:
Pure io mi son perso... :)Compare per 1/3.
Ma Nvidia non compare nelle console per i costi e tecnologia sempre più alti rispetto a AMD?
Noi> io stesso. Poco conta, ormai non c'è molto altro da aggiungere.Ho l'impressione che abbiam perso un attimo il focus sul perché gsync sia stato menzionato, ma bene comunque :').La prossima volta ti mando il post in privato così me lo approvi :yes:
L'attuale gen console l'ho seguita a mozzichi, ma non vissuta. Stai dicendo che Nvidia offre troppo e di ciò ne viene sfruttata una parte?
Io (a parte che lavoro) non ho voglia di fare le corse quindi mando a ramengo gli scalper e vado sereno al prossimo lotto. :yes:Se la storia è come quella della 3080 allora se ne parla fra mesi, in pratica 'ste serie 3000 ce l'hanno solo chi le recensisce XD
Pare (pare, eh) che le 3070 siano messe meglio.Credici fortissimo, magari s'avvera ;D
la proposta aggressiva e' quella della fascia enthusiast 6900 xt
Li si parla di rompere pesantemente le palline alla 3090 al 50% relativo di prezzo in meno (999 vs 1499)
Mica male eh.
La 6800 xt equipara al netto dei driver la proposta 3080 imho, sopratutto le terze parti fatte bene.
la 6800 liscia e' quella con un equilibrio discutibile, certo sulla carta e' piu' veloce della 3070 ma non giustifica il rischio driver ed il 60 euro di listino in piu.
tutto cambia quando il mercato si stabilizza, con magari le solite proposte sapphire/powercolor aggressive (cosa che non succede MAI con nvidia). A quel punto una 6800 xt a 599 euro o ancora meno inizia ad avere un gran senso, idem le 6800 a meno di 399/449
Mi sembra un’ottima idea moralmente ineccepibile.
Io ormai ho deciso di passare ad AMD, probabilmente RX 6800 XT.
Del rei tresing m'importa sega e il DLSS è davvero troppo poco diffuso, quindi il vantaggio tecnico Nvidia si assottiglia fino a non sussistere. Come rapporto forza bruta/costo (pare) vince(re) AMD.
Domani scopro prima di tutto se mi ha scaricato e cosa. Ho lanciato il malloppo e poi me ne son scordato...Se sei riuscito a scaricarlo fammi sapere. Il mio IP di FASTWEB purtroppo è bannato sull'unico mirror decente.
Pardon al momento no.Domani scopro prima di tutto se mi ha scaricato e cosa. Ho lanciato il malloppo e poi me ne son scordato...Se sei riuscito a scaricarlo fammi sapere. Il mio IP di FASTWEB purtroppo è bannato sull'unico mirror decente.
Scaricare tramite VPN è un parto perché si blocca ogni 3 secondi, pagare anche solo 5 euro per una VPN Pro non c'ho testa.
https://twitter.com/OctobinzGaming/status/1512559629686956032?t=8gJ2UsvmcA7dyiWMT-eb3A&s=19Pardon al momento no.Domani scopro prima di tutto se mi ha scaricato e cosa. Ho lanciato il malloppo e poi me ne son scordato...Se sei riuscito a scaricarlo fammi sapere. Il mio IP di FASTWEB purtroppo è bannato sull'unico mirror decente.
Scaricare tramite VPN è un parto perché si blocca ogni 3 secondi, pagare anche solo 5 euro per una VPN Pro non c'ho testa.
Appena trovo un modo ti faccio sapere.
Se hai fregola sicuramente puoi fare nel modo ufficiale : scaricarlo come pacchetto dall'epic store. Serve anche scaricare l'ue5 e va aperto come progetto.
https://www.unrealengine.com/marketplace/en-US/learn/city-sample?sessionInvalidated=true
Mega è sempre stato up, ma ogni 5Gb scaricati devi aspettare 5 ore.Se entri nella cartella ci sono gli zip da 4gb, dovresti riuscire a scaricarne uno alla volta.
https://www.titanichg.com/demo-401Beh, oh, mica male.
Sto scaricando.
Grazie per il documento.Darò un'occhiata al video prima di esprimermi, ma il fatto che si preoccupi, preoccupa...
Il grande Battaglia ha analizzato la città di Matrix.
Ne è uscito un panorama decisamente superiore alle console ma con grossissimi problemi di prestazioni limitate dalla CPU, e l’hanno provata con un I9. :D
In pratica UE5 per ora gira su un singolo thread o quasi, tanto che si è detto preoccupato su come gireranno i giochi e se si potranno raggiungere i 60fps.
Per raggiungerli qui ha praticamente eliminato le IA, persone e macchine.
Diciamo che come biglietto da visita non è esattamente il meglio che potessero tirare fuori, per l’UE5.
https://www.titanichg.com/demo-401Beh, oh, mica male.
Sto scaricando.
La ricostruzione è da lucciconi anche se non usa nanite per avere supermodelli.
Il raytracing a parte una sharpness eccessiva mitigata dal DLSS (che frigge come poche cose al mondo) funziona benone.
Peraltro mi sono divertito a testare i 5 rimbalzi della luce, e, oh, ci sono per davvero anche tra gli specchi.
TFP Link :: https://youtu.be/6rOtNBj7a9A
A 4K, immagino.Ho sparato tutto al massimo :'D. Proverò a segare qualcosa, c'è evidentemente qualche parametro fuori di melone.
Comunque tra quality e performance ci passa tranquillamente il doppio del framerate.
Che nel tuo caso non è comunque sufficiente, ma ok. :D
Mi sa che nemmeno con una 3090 l’UE5 in 4K si salva. XD
Il punto è: Le prestazioni in questa dimostrazione sono influenzate molto dalla frequenza (2.5ghz = 30fps, 5ghz = 50fps).
Poco o nulla dal numero di core o thread (5 core = 47 fps, 10 core 50 fps).
Ho aggiunto un pezzetto ora alla parte che quoti.Il punto è: Le prestazioni in questa dimostrazione sono influenzate molto dalla frequenza (2.5ghz = 30fps, 5ghz = 50fps).
Poco o nulla dal numero di core o thread (5 core = 47 fps, 10 core 50 fps).
scritta così sta ad indicare PROPRIO una situazione in cui non viene sfruttato il multithreading , come nei giochi di 10 (15?) anni fa.
ovvio, è un compile di un progetto, una cosa cruda fatta per dire che si può fare senza aggiungere altro
EGUALMENTE non depone benissimo per l'engine grafico di riferimento dei prossimi 5/10 anni eh...
Ah, sorry, per ignoranza non sapevo nemmeno che UE5 non supportasse DLSS.
Pensavo fosse solo una scelta delle demo uscite di usare un altro tipo di ricostruzione per mantenere la compatibilità su tutte le schede.
Ma no, mi fido. :D
Secondo me Elden Ring non usa più di 12 thread, quindi se trova 12 core li usa tutti senza hyper threading.
Però ci sta, non credo siano molti i software che usano 24 thread.
Infatti se noti i core dal 17 al 24 sono usati. Sono fisici (sono i famigerati atom di Alder Lake).Ah, è vero, non ci avevo fatto caso. XD
Appizza nel bios il resizable bar.Alla fine ho aggiornato tutti i BIOS necessari e l'ho attivato.
Appizza nel bios il resizable bar.Alla fine ho aggiornato tutti i BIOS necessari e l'ho attivato.
L'integer scaling esiste solo per il 2d.
E solo per alcuni (è una rarità di per sé).
[...]
Ritratto.
Perché parlo di cose che non uso :dentone:.
With this move, global electricity consumption is expected to reduce by 0.2% (that's enough to power the world's top 5 cities).
Ma scusate: non ho Cyberpunk, ma gira a 20fps in 4k e RT?Sul tubo si trovano video di Geforce Now modalità 3080, in cui, con i dettagli ad Ultra, in 4k, Dlss Quality, si passa dai 30fps da fermi, ai 20 e rotti in movimento. In modalità Performance le cose migliorano, ma si, senza Dlss e senza giocare sui dettagli (alcuni, come evidenziato da Digital Foundry, possono pesare anche per 5-6 fps, senza che il loro abbassamento cambi nulla a livello visivo) nemmeno le schede più cazzute ce la fanno, almeno su motori ottimizzati un po' con il culo...
Ma fatemi capire: il DLSS3 non fa altro che creare nuovi frame tra quelli esistenti? Cioè quello che ogni TV di fascia alta fa già da secoli, ma qui con l'ausilio della IA?Temo sia così...
Non può essere così, giusto?
È uscita l'analisi preliminare di DF, bella l'analisi e sembra anche ottimo il DLSS3, anche se continuo a pensare che sia un cheat. :yes:Già, spiega bene anche quei 22fps con DLSS 3 disattivato, pare che il il nuovo RT sia molto pesante, essendo applicato a molte più fonti, con, se non ho capito male, una grossa componente di path tracing.
Uno dei video più divertenti che ho visto recentemente:(https://media.tenor.com/wktuPt0ZTlsAAAAM/madonna-eh-la-madonna.gif)
https://youtu.be/9IOBFl5SQVM?t=377
Alla comparazione con PS5 sono MORTO.
Non ci avevo pensato prima d'ora, ma con bestie del genere sicuramente l'appoggio non potrà essere sulla scheda madre. Nei case ci saranno strutture portanti apposite dove alloggiare questi mostri, suppongo.Assurdo che schede più piccole e meno pesanti siano ancorate a tre slot del case, mentre questa è ancorata a DUE slot. XD
Che cialtroni :no:...Che figuraccia. :D
TFP Link :: https://www.hwupgrade.it/news/skvideo/la-geforce-rtx-4080-12-gb-non-arrivera-nvidia-ammette-che-il-nome-era-sbagliato_111016.html
Si parla di 1500€ per la 4080 16Gb e si parlava di 1100€ per la 10Gb.Io la 4080 16gb me la faccio contrabbandare da un amico canadese😁
La 4090 pare arriverà serena a 2000€.
Tra l'altro la 4080 10Gb in base ai benchmark faceva tipo 4 frame in più rispetto alla 3080 liscia. XD
E pensare che per svuotare i magazzini di 3000, gli sarebbe bastato sbloccare il dlss3 e venderle ad un prezzo ridotto, sarebbero andate a ruba assieme alle 4000...
ma proprio l'enorme disponibilità (in arrivo...?) di schede 30xx dismesse dalle crypto farm non dovrebbe generare un effetto di riduzione dei prezzi generalizzato sul settore?
Il problema è che non puoi sapere se l'ha usata Giggino al 140% di TDP e 95° 24/24 o l'ha usata una fabbrica di criptovalute un pelo più sensata.
Eppure, in realtà, oggi una 3080 non la trovi ad un prezzo inferiore ad una 4080, parlo di prezzi di listino, e come prestazioni la 4080 è più vicino ad una 3090, quindi sarebbe sempre più conveniente prendere direttamente una scheda nuova, per questo parlavo di abbassare i prezzi delle 3000 e rendere disponibile, magari più acerbo, dlss3, in questo modo avrebbero attratto sia il bacino degli utenti accorti, che puntano alla qualità prezzo, e magari se la arrischiano con schede dubbia provenienza, sia quello degli entusiasti, che si butterrebbero sull'ultima uscita senza se e senza ma...
Ovviamente, di fatto la mossa di cambiare il nome alla 4070 in "4080 moncherina", sarebbe stata una sorta di specchietto per rendere la 4070 travestita da 4080 piu' allettante rispetto una 3080 usata, che in questo momento offre performance paragonabili a prezzi piu' umani.
Senza entrare in discorsi tecnici chilometrici, quale di queste sarebbe la più indicata per ottenere l'obiettivo (anti aliasing), senza strafare?Temporal
Se non sbaglio tra le opzioni di RDR2 c'è il multisample AA fino a 4 o 8x. In pratica quando lo usi porzioni di immagine quadruplicano (o peggio) la risoluzione. Penso che al massimo non basterebbe una 4090. ^^In realtà la prova l'ho fatta sparando tutto al massimo, quindi avevo anche le opzioni di MSAA, FXAA e TAA tutte massimizzate, e con DLSS 2 arriva anche a 70fps, in 4k.
Ho provato Red Dead Redemption 2, e tutto maxato (anche le opzioni avanzate, compreso Raymarch), in 4k raggiunge, e sfora a volte, i 60fps, solo con DLSS 2 Quality.
Con una 4080. Si, scheda madre e processore sono da cambiare (PCIE 3.0 e i7 6700k a 4.6ghz), però mi pare un risultato un po' deludente...
A parte questo, noto nelle opzioni diverse modalità di anti aliasing, tra msaa, taa, fxaa, ed ho come l'impressione che attivarle tutte possa essere ridondante, soprattutto assieme al DLSS.
Senza entrare in discorsi tecnici chilometrici, quale di queste sarebbe la più indicata per ottenere l'obiettivo (anti aliasing), senza strafare?
Danke
Con che hardware?
In 4k tutto maxato* faccio circa 70-80 fps con dlss quality.
Con che hardware?
In 4k tutto maxato* faccio circa 70-80 fps con dlss quality.
Posteresti un riassuntino delle tue opzioni grafiche?Perchè 2880p?
In pratica usi DSR e poi DLSS per evitare di attivare gli algoritmi di anti aliasing?
Grazie mille
<rage__fwuiSystemSettingsCollection>
<version value="37"/>
<configSource>kSettingsConfig_Auto</configSource>
<graphics>
<tessellation>kSettingLevel_Ultra</tessellation>
<shadowQuality>kSettingLevel_Ultra</shadowQuality>
<farShadowQuality>kSettingLevel_Ultra</farShadowQuality>
<reflectionQuality>kSettingLevel_Ultra</reflectionQuality>
<mirrorQuality>kSettingLevel_Ultra</mirrorQuality>
<ssao>kSettingLevel_Ultra</ssao>
<textureQuality>kSettingLevel_Ultra</textureQuality>
<particleQuality>kSettingLevel_Ultra</particleQuality>
<waterQuality>kSettingLevel_High</waterQuality>
<volumetricsQuality>kSettingLevel_Ultra</volumetricsQuality>
<lightingQuality>kSettingLevel_Ultra</lightingQuality>
<ambientLightingQuality>kSettingLevel_Ultra</ambientLightingQuality>
<anisotropicFiltering value="4"/>
<dlssIndex value="2"/>
<dlssQuality value="2"/>
<dlssSharpen value="0.350000"/>
<fsr2Index value="0"/>
<fsr2Sharpen value="0.350000"/>
<taa>kSettingLevel_High</taa>
<fxaaEnabled value="false"/>
<msaa value="0"/>
<graphicsQualityPreset value="1.000000"/>
<hdr value="false"/>
<hdrIntensity value="100"/>
<hdrPeakBrightness value="1000"/>
<hdrFilmicMode value="true"/>
<gamma value="15"/>
<hdrSettingsMigrated value="true"/>
</graphics>
<advancedGraphics>
<API>kSettingAPI_Vulkan</API>
<locked value="false"/>
<asyncComputeEnabled value="false"/>
<transferQueuesEnabled value="true"/>
<shadowSoftShadows>kSettingLevel_Ultra</shadowSoftShadows>
<motionBlur value="true"/>
<motionBlurLimit value="16.000000"/>
<particleLightingQuality>kSettingLevel_Ultra</particleLightingQuality>
<waterReflectionSSR value="true"/>
<waterRefractionQuality>kSettingLevel_High</waterRefractionQuality>
<waterReflectionQuality>kSettingLevel_High</waterReflectionQuality>
<waterSimulationQuality value="3"/>
<waterLightingQuality>kSettingLevel_Ultra</waterLightingQuality>
<furDisplayQuality>kSettingLevel_High</furDisplayQuality>
<maxTexUpgradesPerFrame value="5"/>
<shadowGrassShadows>kSettingLevel_High</shadowGrassShadows>
<shadowParticleShadows value="true"/>
<shadowLongShadows value="true"/>
<directionalShadowsAlpha value="false"/>
<worldHeightShadowQuality value="1.000000"/>
<directionalScreenSpaceShadowQuality value="1.000000"/>
<ambientMaskVolumesHighPrecision value="true"/>
<scatteringVolumeQuality>kSettingLevel_Ultra</scatteringVolumeQuality>
<volumetricsRaymarchQuality>kSettingLevel_Ultra</volumetricsRaymarchQuality>
<volumetricsLightingQuality>kSettingLevel_Ultra</volumetricsLightingQuality>
<volumetricsRaymarchResolutionUnclamped value="true"/>
<terrainShadowQuality>kSettingLevel_Ultra</terrainShadowQuality>
<damageModelsDisabled value="false"/>
<decalQuality>kSettingLevel_Ultra</decalQuality>
<ssaoFullScreenEnabled value="true"/>
<ssaoType value="0"/>
<ssdoSampleCount value="4"/>
<ssdoUseDualRadii value="false"/>
<ssdoResolution>kSettingLevel_Low</ssdoResolution>
<ssdoTAABlendEnabled value="true"/>
<ssroSampleCount value="2"/>
<snowGlints value="true"/>
<POMQuality>kSettingLevel_Ultra</POMQuality>
<probeRelightEveryFrame value="false"/>
<scalingMode>kSettingScale_Mode1o1</scalingMode>
<reflectionMSAA value="3"/>
<lodScale value="1.000000"/>
<grassLod value="3.000000"/>
<pedLodBias value="0.000000"/>
<vehicleLodBias value="0.000000"/>
<sharpenIntensity value="1.000000"/>
<treeQuality>kSettingLevel_Ultra</treeQuality>
<deepsurfaceQuality>kSettingLevel_High</deepsurfaceQuality>
<treeTessellationEnabled value="true"/>
</advancedGraphics>
<video>
<adapterIndex value="0"/>
<outputIndex value="0"/>
<resolutionIndex value="22"/>
<screenWidth value="5120"/>
<screenHeight value="2880"/>
<resolutionIndexWindowed value="19"/>
<screenWidthWindowed value="3840"/>
<screenHeightWindowed value="2160"/>
<refreshRateIndex value="6"/>
<refreshRateNumerator value="120"/>
<refreshRateDenominator value="1"/>
<windowed value="0"/>
<vSync value="0"/>
<tripleBuffered value="false"/>
<ReflexSettings>kSettingReflex_On_Boost</ReflexSettings>
<pauseOnFocusLoss value="false"/>
<constrainMousePointer value="false"/>
</video>
<videoCardDescription>NVIDIA NVIDIA GeForce RTX 3080 Ti</videoCardDescription>
</rage__fwuiSystemSettingsCollection>
For OpenGL and Vulkan games, Nvidia owners using driver version 526.61 or newer can set Vulkan/OpenGL present method in the Nvidia Control Panel > Manage 3D Settings page to Prefer layered on DXGI Swapchain which will in many cases allow Auto HDR to kick in for these games as well (might require the game to be played in window or borderless window mode).https://www.pcgamingwiki.com/wiki/Glossary:High_dynamic_range_(HDR)#HDR_output_on_a_HDR_display
Secondo quello che ha detto Andrea, se lo giochi a 1440p imposti 2160p e sei a posto. Probabilmente non ti serve nemmeno il DLSS.Ehm, cioè dici che su uno schermo 3440x1440, imposto come risoluzione 2160p, e quella mi farebbe da AA?
Il DSR è un moltiplicatore, guarda nel pannello a cosa corrisponde 1.78x e seleziona quella nel gioco.Il mio schermo ha res nativa di 3440x1440, dici che debba andare a tentativi?
Dovresti trovare qualcosa tipo 2560p.
Poi ehi, ti perdi una bella fetta di prestazioni, tolrno a ribadire... prova e poi decidi.
Come metodo di AA però è certamente il migliore per questo gioco. Direi l'unico decente :'D.
PS. ho notato ora che è 21:9.
Probabilmente a 2500p ti salta in aria tutto, ma prtova :'D.
Il taa viene bypassato attivando il dlss, nel cfg rimane elencato ovviamente, anche se non viene utilizzato.Il DSR è un moltiplicatore, guarda nel pannello a cosa corrisponde 1.78x e seleziona quella nel gioco.Il mio schermo ha res nativa di 3440x1440, dici che debba andare a tentativi?
Dovresti trovare qualcosa tipo 2560p.
Poi ehi, ti perdi una bella fetta di prestazioni, tolrno a ribadire... prova e poi decidi.
Come metodo di AA però è certamente il migliore per questo gioco. Direi l'unico decente :'D.
PS. ho notato ora che è 21:9.
Probabilmente a 2500p ti salta in aria tutto, ma prtova :'D.
Un'ultima domanda, ho notato che hai comunque impostato TAA su High, quindi il DSR non è proprio l'unico metodo di AA che suggerisci.
Grazie, sei stato molto paziente e gentile...
Il taa viene bypassato attivando il dlss, nel cfg rimane elencato ovviamente, anche se non viene utilizzato.Quindi con DLSS spuntare opzioni di AA non ha senso?
Non è possibile, le opzioni sono mutuamente incompatibili.Il taa viene bypassato attivando il dlss, nel cfg rimane elencato ovviamente, anche se non viene utilizzato.Quindi con DLSS spuntare opzioni di AA non ha senso?
Probabilmente l'unica cosa per cui il gioco verrà ricordato.Stavo pensando giusto ieri, ma se buttano tutto sulla gpu, pure la tostatura del caffè, cosa succede?
TFP Link :: https://gfycat.com/anyabsoluteicterinewarbler
Il debutto di Directstorage.
Dovrebbe esserci la demo su Steam, penso la proverò solo per i caricamenti :'D.
O anche no.
Epperò dicci cosa prendi, dai che siamo curiosi.
Ahaha, se vai di blocco è un salasso senza senso.
Io cerco sempre di andare gradualmente, per quanto possibile (e non sempre è possibile).
Sulla fascia hi-end è un non problema.
Ci sono quelle con l'aio e magicamente le dimensioni tornato normali...
Non è che l'hi-end è solo raffreddamento a liquido, anzi, le GPU con heatsink decente è già tanto se overcloccate raggiungono gli 80° con curva delle ventole normale.Zì oca.
Fa così anche con tutto al minimo. E ho riavviato perchè non vorrei che ci fossero setting che richiedono il riavvio. E ovviamente non cambia nulla. Ho editato file ini come consigliato ovunque. Cambia niente.Pietra sopra.
https://multiplayer.it/notizie/hogwarts-legacy-pc-problemi-performance-pare-non-siano-stati-risolti-patch-1120320.html
:/
Lo stato dei giochi su pc e la mancata ottimizzazione mi sta facendo tornare alle console. Ultima vittima, Hogwarts. Dopo la intro non c'è stato verso di fixare lo stuttering. E' implacabile, fastidiosissimo, puoi avere DLSS, puoi avere Gsync, puoi avere quel cazzo che vuoi. Stuttera (con una misera 2060, chiaro, ma a 1080p con TUTTO al minimo & DLSS attivo? EDDAI). E ovviamente su ps5 un burro, visto da un amico.È una cosa che sembra, per coincidenza, partita con Callisto Protocol, e si sta trascinando su diversi titoli.
Il pc gaming fa cagare al cazzo, son depresso.
No perchè compila gli shader all'avvio come già altri giochi dopo la debacle Callisto.Lo stato dei giochi su pc e la mancata ottimizzazione mi sta facendo tornare alle console. Ultima vittima, Hogwarts. Dopo la intro non c'è stato verso di fixare lo stuttering. E' implacabile, fastidiosissimo, puoi avere DLSS, puoi avere Gsync, puoi avere quel cazzo che vuoi. Stuttera (con una misera 2060, chiaro, ma a 1080p con TUTTO al minimo & DLSS attivo? EDDAI). E ovviamente su ps5 un burro, visto da un amico.È una cosa che sembra, per coincidenza, partita con Callisto Protocol, e si sta trascinando su diversi titoli.
Il pc gaming fa cagare al cazzo, son depresso.
Lo stesso problema per tutti, compilazione degli shader?
Boh...
Ho provato l'inizio di Half-Life RT (ho superato giusto i primi scontri).Hai provato ad alzare il limite di shader cache dal pannello di controllo Nvidia? (qualcuno suggerisce 10GB)
Porcazzizza se hanno fatto un lavorone.
Alcune parti acquisiscono un'atmosfera nuova e, almeno fin dove ho visto, appropriatissima.
Con una 3080 in 4k gira senza stutterare solo con DLSS Ultra Performance. Ma credo sia perché a quel punto va oltre i 120 fps che è il limite di refresh del monitor, quindi lo stutter potrebbe essere più un problema di GSync che altro, devo fare qualche prova.
No, ma in questo caso non è stutter da shader, è proprio un problema di vsync, come se il GSync non funzionasse.Però dici che gira senza stutterare solo in Ultra performance, ma che a quel punto la causa sarebbe proprio l'opzione che spara i frame a palla, superando il limite di refresh del monitor. Ma quindi lo stutter questo ultra performance lo evita ("gira senza stutter solo ad ultra performance") o lo causa? :-[
Però quello in effetti potrebbe aiutare in altri casi, devo provare.
Ho provato l'inizio di Half-Life RT (ho superato giusto i primi scontri).Prova a mettere vsync on dai driver nvidia
Porcazzizza se hanno fatto un lavorone.
Alcune parti acquisiscono un'atmosfera nuova e, almeno fin dove ho visto, appropriatissima.
Con una 3080 in 4k gira senza stutterare solo con DLSS Ultra Performance. Ma credo sia perché a quel punto va oltre i 120 fps che è il limite di refresh del monitor, quindi lo stutter potrebbe essere più un problema di GSync che altro, devo fare qualche prova.
Come immaginavo, il gioco veniva visto come se girasse in finestra anche se era a schermo pieno, quindi è bastato abilitare il GSync anche nelle applicazioni in finestra.Beh chiaro, ma in realtà è l'esatto contrario.
Avendo il vsync attivo, il gioco stutterava per ogni framerate che non fosse superiore ai 120fps. :)
Ora posso lasciare bilanciato e il gioco sta comunque sui 70, o performance per 90 circa.
Come immaginavo, il gioco veniva visto come se girasse in finestra anche se era a schermo pieno, quindi è bastato abilitare il GSync anche nelle applicazioni in finestra.
Simulazione di liquidi in tempo reale in UE:
https://youtu.be/6uyPh1OuPl4
Si cominciaQuesto è molto fico, anche perché dovrebbe essere accessibile anche senza spendere 2000€ di scheda video.
TFP Link :: https://github.com/NVIDIAGameWorks/rtx-remix
Mah, usare la tv come monitor è sempre una turistata :yes: non mollo il mio odyssey, però nei giochi alla cyberpunk preferisco la tv, ma sto a distanza, te stai col naso schiacciato alla tele con mouse e tastiera? :hurt:
Beh si va sul filosofico. Cos'è un tv e cosa un monitor, oggigiorno? : V
Questo.
Mentre i monitor, per un qualche motivo, vanno di interpolazione anche quando non è matematicamente necessaria.
Sempre stupito di questa cosa, francamente.
Nulla che non si sapesse, ma mi sembra un buon articolo:
https://www.techspot.com/article/2670-vram-use-games/
O meglio degli sviluppatori che hanno smesso di realizzare streaming decenti che sfruttino i punti di forza del PC.
Ma di FSR3 che crea un buon 30-50% di frame in più e gira anche sulle serie 1000 di Nvidia e supporta tutti i giochi DX11 e DX12 vogliamo parlarne?
Sento sin da qui Nvidia che digrigna i denti.
Esplodere un po’ fa bene anche a te, eh, Nvidia? Tieni fede al tuo nome, su.
E speriamo non siano cagate commerciali.
Ma di FSR3 che crea un buon 30-50% di frame in più e gira anche sulle serie 1000 di Nvidia e supporta tutti i giochi DX11 e DX12 vogliamo parlarne?
Sento sin da qui Nvidia che digrigna i denti.
Esplodere un po’ fa bene anche a te, eh, Nvidia? Tieni fede al tuo nome, su.
E speriamo non siano cagate commerciali.
Il giochino sta in piedi fintanto che l'iq risulta superiore al nativo. Nel momento in cui è sotto, per guadagnare fps basta fare alla vecchia... scendi di risoluzione.Vabbè, so che lo sai, lo dico per chi non lo sapesse: il DLSS permette di guadagnare frame senza dover scendere di risoluzione.
Sì lo so ma per è sopravvalutato, cioè a me non frega niente di abbassare la risoluzione a 900p e scalare le ombre a low.Il raytracing è ancora in fase sperimentale, su PC.
Da quello che scrive certa gente pare roba da fantascienza e l'unico modo di aumentare i fotogrammi. E poi con una scheda serie 4000, quindi roba abbastanza recente e potente, non capisco proprio perché dovrei usarlo. Paradossalmente è una feature da barboni messa su schede da 500€. Voglio 1080p nativi, compro una 4060. Voglio 1440p, compro una 4070. Voglio 4K senza avere i soldi, sono scemo.
Per quanto riguarda RT, una feature che ti fa perdere 30 frame non è una feature del presente, è una feature del futuro. Pare di vedere la storia dei televisori 4K senza contenuti 4K, come al solito in campo tecnologico fanno il passo più lungo della gamba. Tra 5 anni sarà la norma, oggi no. Mi sembra tutto così stupido e... ridondante. Poi Ndivia mi sta sul cazzo come tutti quelli che hanno l'80% del market share, una scheda loro non la voglio manco regalata. Se me la regalano la vendo e compro una AMD molto più potente con gli stessi soldi ^^
Ah, io non ho mai notato differenze.
Mi limito a urlare "Stregoneria!" e vivo felice. :D
È uscito ufficialmente l'FSR3 e, in questi casi ora disponibili dove è integrato direttamente nei giochi, sembra spaccare abbastanza. :yes:
Viva la concorrenza, sempre, ma se è vero che come mi è parso di leggere devi avere il V-Sync attivo...O___o
(https://i.postimg.cc/cJwzXTFs/spits-coffee-laughing.gif) (https://postimages.org/)
Per chi se lo chiedesse (io me lo chiedevo):A quanto pare si può.
"You also can't enable DLSS upscaling and FSR3 frame generation at the same time."
Ho provato AW2 con FSR3.
Giocabile sulla mia scheda a 1440 con DLSS in quality (sì, la cosa turbofotta è che puoi usarlo insieme al DLSS) con tutto a bomba e path tracing a medio, 40fps con momenti anche sopra i sessanta, ovvero esattamente il doppio dei frame rispetto a prima.
Sembra super stabile e onestamente rilevo solo un po' di leggero ghosting durante le rotazioni veloci (tipo come quando lasci acceso un minimo di motion blur). Nell'oscurità il movimento delle fronde degli alberi in effetti un po' di impastava, ma davvero roba trascurabile.
Potrei essere un minimo eccitato per la cosa, ma per me siamo dalle parti del game changer assoluto.
Nvidia caccapupù che non smolla il FG per tutte le sue schede.
AMD FTW, vera compagna tra nazi malefici. ^__^
Io sogno sempre un rilancio di PhysXIo ogni tanto rilancio e giochicchio con le demo tecniche che avevano reso pubbliche. Ancora oggi è spettacolare. ^^
Per quel che mi riguarda, su Cyberpunk 2077 il passaggio tra DLSS Quality e Balanced, a parità di impostazioni maxate in 4k, su uno schermo 55 giocando a 2 metri di distanza circa, è indolore dal punto di vista della qualità visiva (giusto un po' più di effetto moirè su alcune strutture a griglia), ma a livello di prestazioni se ne giova tantissimo (si passa da 41fps di media, "faticosi" come dice Wis, ai 58, lockati per questioni di vsync, stabili). Anche il ghosting migliora, e si allontana anche, rispetto al tempo di gioco, la comparsa di quel fastidioso problema di, credo, compilazione degli shader/gestione della cache, per cui entrare ed uscire da un menù portava, per qualche secondo, ad un crollo verticale del frate rate.
Date un Nobel ad Nvidia per quantità e qualità di novità apportate recentemente alla tecnologia, davvero al servizio del medium, tra Geforce Now, DLSS e AI...
Io sogno sempre un rilancio di PhysX, che a una certa in titoli come Borderlands 2 aveva raggiunto lo stato dell'arte, salvo poi diventare [credo] un middleware integrato un po' ovunque senza farsi notare granché:
TFP Link :: https://youtu.be/kA7qNIsRt34?si=25hsuhECEaqlcg4T
Quella roba lì si può fare tranquillamente su qualsiasi motore vagamente recente. Se non si fa è perché non c'è interesse.
Forse non tutti sanno che: con gli ultimi driver, nvidia ha piazzato il suo autohdr per i video.
A 'na certa facile nvidia sganci il pacchetto ufficiale.
Provicchiato.Provato anche io con Red Dead Redemption 2, le due nuove opzioni HDR ed RTX dalla app, sotto "Impostazioni globali", non ricordo i nomi, su un pannello LG Oled55 bla bla bla, il rosso dei menù e dell'interfaccia era diventato arancione. Disattivando le due opzioni è tornato tutto normale, o almeno spero che quel colore rosso, in un gioco chiamato Red Dead Redemption, a cui ero abituato fosse la normalità, e non l'arancione Lamborghini che ho visto attivando le novità Nvidia...
Sulla qualità non saprei esprimermi.
Ho caricato velocemente rdr2 con autohdr e rtx hdr e forse il tramonto nel secondo caso mi era sembrato più pronunciato.
Forse... boh.
O magari le nuvole e il sole si erano semplicemente spostati :'D.
Provato anche io con Red Dead Redemption 2, le due nuove opzioni HDR ed RTX dalla app, sotto "Impostazioni globali", non ricordo i nomi, su un pannello LG Oled55 bla bla bla, il rosso dei menù e dell'interfaccia era diventato arancione. Disattivando le due opzioni è tornato tutto normale, o almeno spero che quel colore rosso, in un gioco chiamato Red Dead Redemption, a cui ero abituato fosse la normalità, e non l'arancione Lamborghini che ho visto attivando le novità Nvidia...