View Single Post
Old 24-09-2021, 11:49   #13986
Malek86
Senior Member
 
L'Avatar di Malek86
 
Iscritto dal: Jun 2007
Città: Pisa
Messaggi: 24786
E per finire, il più pesante fra i test, MDK2.

L'ho scelto perchè dura poco, è affidabile, ti dice anche il CPU frametime, e supporta T&L anche se in maniera abbastanza limitata. Ma le schede più vecchie hanno grosse difficoltà. Inutile esplorare tutti i problemi che si trovano (tanto per cominciare, il gioco richiederebbe 15MB di memoria per le texture a settaggi di default). Parlerò solo dei più rilevanti.



- che la SiS 6326 facesse schifo in OpenGL l'avevamo già appurato in Q2, ma non mi spiego il crollo della Permedia, fra l'altro con diversi problemi di rendering. Texture thrashing?

- ho dovuto cambiare di nuovo i driver della Velocity: con quelli che usavo per Quake 2, a quanto pare la scheda non era in grado di accedere alla memoria AGP per le texture, e come risultato scendeva sotto 1fps. Con i driver più recenti le cose sono migliorate parecchio.

- la Trident Blade 3D ha grossissimi problemi di CPU frametime a certe risoluzioni, ancora una volta non mi spiego il motivo. L'unica con comportamento normale è 800x600.

- la Banshe e Voodoo 3 abbassano automaticamente le dimensioni delle texture. Si vede la differenza. Ma per il resto non sono terribili. Strano che la Voodoo 3 non sia più in alto.

- la Savage4 se la cava bene per le sue specifiche. L'unica architettura decente di S3, immagino.

Il gioco è fortemente limitato dalla CPU, di default nessuna scheda va oltre 60fps. Ma è possibile abilitare il T&L nelle schede che lo supportano. Cosa che però non sempre aiuta.

In realtà, da quel che so io, la modalità T&L in MDK2 si può attivare anche se la scheda non la supporta, e semplicemente va in modalità software. Però dal momento che le luci sono più complesse, attivare il T&L nelle schede che non lo supportano porta effettivamente ad un calo di prestazioni.

- per attivare il T&L nella Savage 2000 occorre aggeggiare un po' col registro. Capisco perchè l'abbiano disattivato, i risultati sono terribili e ci sono più errori di rendering.

- tecnicamente la GVX1 dovrebbe supportarlo (non in D3D, visto che la scheda non è DX7, ma almeno in OpenGL speravo di sì). Ma i risultati peggiori mi fanno credere che semplicemente non ci riesca.

- anche la Matrox G550 dovrebbe supportarlo, ma ancora una volta, mi sembra di no.

- le SiS 315 dovrebbero supportarlo: non sembra esserci un guadagno, ma almeno non sembra che ci sia nemmeno un peggioramento stavolta. Forse non erano sufficientemente potenti per calcolare le luci più complesse.

- come la SiS 315, anche la Radeon ha praticamente lo stesso risultato in T&L. Mi viene da credere che il gioco fosse ottimizzato particolarmente per schede Geforce.

- in ogni caso, anche le Geforce non è che abbiano chissà quali guadagni. Un aumento del 10-12% non è da buttare via, ma speravo di più. Comunque è sicuramente meglio attivarlo se si possiede una Geforce 2 o superiore.
__________________
You were torn apart twice. 20320514: the day of the Great Heat.
PC: Ryzen 5 3600, Gigabyte B450M DS3H, Powercolor Hellhound RX 6600 XT 8GB, 16GB DDR4@2666, Kingston KC2500 500GB + A400 1TB, Win11 Pro
Laptop: Acer Swift X 14" with Ryzen 5500U, GTX 1650 (896 CUDA) 4GB GDDR6 35W, 8GB LPDDR4X-4266, NVMe SK Hynix 512GB, Win11 Home

Ultima modifica di Malek86 : 24-09-2021 alle 12:05.
Malek86 è offline   Rispondi citando il messaggio o parte di esso