Puoi montare anche 100 GB di ram, ma se l'applicativo fa I/O te ne fai poco. E i videogiochi su pc -chi più, chi meno- accedono eccome a filesystem (a meno di montarlo su ramdisk : V).
ok, secondo me hai solo un pò le idee confuse sul discorso I/O, ma vedo che ti piacerebbe saperne di più.
mi permetto di spiegarti qualcosa, dato che è un argomento che conosco abbastanza bene anche da un punto di vista professionale (ho lavorato sulle architetture a microcontrollore e ho cominciato come programmatore assembler prima di passare a linguaggi di più alto livello)...
l'architettura della memoria è detta gerarchica e prevede, a partire dalla cpu, sostanzialmente 3 livelli: cache, ram, e disco fisso. in mezzo ci sono i vari costrutti per il trasferimento dei dati da un livello all'altro, chipset per il trasporto dei dati attraverso le componenti della cpu, bus, ecc. ecc. ma oggi sono diventati ininfluenti ai fini delle prestazioni (in particolare grazie alle unità di branch prediction e meccanismi di località spaziale e temporale che permettono alla cache di azzeccare più del 99% dei dati da caricare), quindi limitiamoci al discorso memoria.
in generale i dati attraversano sempre e comunque questi 3 livelli (che compongono la cosidetta memoria virtuale) per arrivare alla cpu (o alla gpu, dove li attende eventualmente un ulteriore livello di ram video), per cui comunque vada i dati passano sempre dalla ram; l'unica eccezione è che la ram sia talmente imballata da dover estendere lo spazio di memoria attraverso il paging, un meccanismo per cui la memoria virtuale viene estesa sfruttando il disco fisso come estensione e di cui ti parlerò tra poco.
un hard disk veloce agevola il riempimento della ram in lettura, e lo svuotamento in scrittura; è ovviamente la parte più lenta dell'infrastruttura di memoria, perchè ancora legata a vincoli meccanici di reperimento e scrittura dati. lentezza che a seguire interessa la ram, mai realmente evoluta negli ultimi 20 anni, in particolare rispetto ai meccanismi di caching, e più che altro perchè da un punto di vista software ci si può montare sopra ben poco. è un mondo fondamentalmente legato e vincolato ancora all'ingegneria elettronica, praticamente fuori dall'ambito informatico, e hanno comunque fatto miracoli nel corso deli anni. infine si arriva alla cache, vera perla della gestione di memoria, e sostanzialmente motivo per cui le architetture sono evolute in multiprocessore... le cache sono veramente molto efficienti oggigiorno (in realtà, da almeno 10 anni) e hanno permesso di sciogliere il problema dell'"ultimo miglio", quello per cui si aiuta la cpu ad avere sempre a disposizione i dati giusti su cui elaborare.
ovviamente anche la cache deve essere rifornita dei dati per lavorare, e qui provvede la ram. la cache è MOLTO cara e quindi più di tanta non se ne può avere; la ram costa meno e quindi oggi se ne abusa (spesso se ne usa più di quanta realmente serve), al punto da farvi persino troppo affidamento, soprattutto in ambito pc.
tuttavia è spesso la ram il tratto di maggiore interesse nella gestione della memoria. quando si sviluppa un'applicazione, si decide quali risorse caricare (video, musica, ecc.). come dicevo la cache non ha bisogno di essere gestita, lo è già di suo con costrutti molto efficenti e insiti nel sistema operativo; la ram non ha costrutti particolari e quindi può e deve essere gestita manualmente dal codice dell'applicazione.
gestire male la ram può provocare danni enormi; vedi gothic 3 che riempiva di merda la ram e potevi averne tonnellate che comunque dopo un pò si riempiva e il gioco scattava. e non c'era ssd che teneva.
una buona gestione della ram quindi è fondamentale anche per scongiurare il rischio di dover ricorrere al paging. arrivare al paging significa arrivare a dover estendere la memoria virtuale sfruttando una porzione di disco. in media è una cosa deleteria, e significa a) fare girare un'applicazione al di soprà delle possibilità della macchina oppre b) l'applicazione è stata fatta col culo.
infine la gestione del disco fisso. qui gli sviluppatori possono ben poco, e in ogni caso è bene che stiano attenti. il disco fisso non è normalmente una risorsa affidabile: può avere problemi di frammentazione, settori danneggiati, oppure semplicemente stai scaricando in background e quindi sta lavorando molto.
si tratta di una risorsa non adatta a gestire situazioni critiche. sicuramente non è una risorsa da utilizzare per aumentare le prestazioni, al massimo, bypassare alcuni limiti della macchina.
faccio un esempio pratico, uncharted 3, sul quale ho inveito a oltranza all'acquisto della ps3 superslim, e del quale ne ho abbondantemente parlato all'epoca. naughty dog ha optato per lo streaming da disco, per bypassare il problema della poca ram su ps3. all'epoca vi erano hard disk monopiatto da 160gb e 320gb, discretamente efficienti come supporto aggiuntivo alla lettura dei dati. il gioco girava discretamente con qualche problema di fluidità, del resto hanno tirato all'inverosimile la gpu. poi uscì la superslim da 500gb, con lo stesso modello di hard disk, ma che aveva superato i limiti in termini di dimensioni rispetto le effettive capacità di lettura e scrittura della testina su un monopiatto, e sono cominciati i guai. uncharted era ingiocabile, rallentava di brutto. tutta colpa dell'hard disk dato che poi, sbarazzandomi della superslim e passando alla slim da 320gb i problemi si sono risolti.
però questo è un caso particolare. l'uso dello streaming da disco è una tecnica non convenzionale usata recentemente in ambito console (non saprei se nel mondo pc è stata usata) per bypassare il problema della mancanza di ram. ma non per aumentare le prestazioni: chi elabora i dati è comunque la gpu, se nun gliela fà, niun gliela fà.
e comunque ribadisco che il disco fisso non è e non va visto come una risorsa; in effetti ci sono anche modelli di console senza disco fisso, per dire.
inoltre, ammettendo che il disco sia obbligatorio, sarebbe bastato permettere un'installazione di uncharted per risolvere il problema. installando un gioco prepari "i dati all'uso", e agevoli il lavoro di lettura e caricamento ram, buffer video, ecc. il remaster di the last of us ha infatti rimosso lo streaming da disco per passare a una più convenzionale installazione. vero che la ps4 è più potente, ma vero anche che le texture in alta risoluzione potevano essere effettivamente un pò troppo per uno streaming affidabile e poi, diciamolo, modelli di console senza disco non usciranno più, probabilmente, quindi non si è più realmente vincolati al solo plug & play da bluray...
ma per tutti gli altri casi l'ssd non aumenta le prestazioni DI GIOCO perchè la natura del disco fisso non è quella di fornire dati "al volo": per quello c'è e ci sarà sempre la ram, il disco fisso opera in background. naughty dog ha fatto un'eccezione con lo streaming da disco solo perchè non poteva (e non voleva...) fare diversamente. con più ram avrebbe certamente risolto il problema in maniera più efficiente: la dimostrazione è che in effetti la fluidità non era eccessiva nemmeno con un hard disk ssd, sempre per il problema che poi, gira gira, il buffer video si rimpie all'estremo e lì si cominciano a perdere frame... non c'è hard disk che tiene. e la differenza tra il 320gb, l'ibrido e l'ssd era praticamente impercettibile, in sostanza vi è un limite oltre il quale non si passa... si poteva al più scendere con un hard disc cacoso, questo sì, ma non migliorare più di tanto.
è come imbottigliare tramite un imbuto: per quanto velocemente lo si riempia prima o poi l'acqua viene fuori e l'unica soluzione è usare un imbuto più grande, non cercare di riempirlo con idrante piuttosto che col rubinetto.
quindi se vuoi puoi pure mettere su un ssd, ma non aspettarti miracoli. i dati caricheranno prima ma on-game non noterai la differenza, specie se giochi a qualcosa che non fa streaming da disco (praticamente, la stragrande maggioranza di giochi)....