GeForce FX 5800 Ultra e non solo: quando i produttori di GPU sbagliano

Si possono avere mille pareri diversi sulle schede video uscite in commercio dall'introduzione del rendering 3D a oggi, ma nella storia vi sono stati alcuni flop conclamati su cui - crediamo - la maggior parte degli appassionati si trova d'accordo. Grazie allo spunto di un lettore, ripercorriamo quelli che (secondo noi) rappresentano alcuni scivoloni evidenti in un'evoluzione altrimenti costellata di schede video buone e meno buone.
di Manolo De Agostini pubblicato il 03 Maggio 2023 nel canale Schede VideoGeForceNVIDIAAMDRadeon
Nell'aprile di 20 anni fa su Hardware Upgrade usciva la recensione della GeForce FX 5800 Ultra, una scheda che possiamo annoverare tra i più grandi flop di casa NVIDIA. Nelle scorse settimane un lettore ci ha scritto per chiederci se avremmo scritto qualcosa di quell'anniversario, in una sorta di rubrica che potremmo chiamare "amarcord" e alla fine siamo giunti alla conclusione che sarebbe stato più interessante non limitarsi a un articolo sulla vecchia GPU di NVIDIA, ma fare qualcosa di più ampio respiro.
Nella storia delle GPU vi sono stati diversi passi falsi, progetti avvolti dall'hype e poi rivelatisi meno interessanti delle attese, a volte dei veri e propri disastri o incompiute. Abbiamo cercato di fare mente locale per arrivare una selezione, concentrandoci solo su quelli che sono stati dei "fail" conclamati per buone ragioni: in breve, se pensate che una GPU avrebbe dovuto costare meno o essere più veloce, non l'abbiamo inserita.
La percezione soggettiva di un prodotto non è sempre affidabile, abbiamo perciò cercato di eliminare tale componente (per quanto possibile, non è per nulla facile) dalla stesura di questo articolo.
NVIDIA NV30, la FX 5800 Ultra sotto le attese: lenta e rumorosa
Chi ha qualche anno sulle spalle si ricorderà di quel clima di attesa che circondava il progetto NV30 di NVIDIA, una GPU che avrebbe dovuto riportare la casa di Santa Clara in vetta al settore in cui l'allora ATi Technologies le aveva strappato la corona con le prime proposte DirectX 9, compatibili con i Pixel Shader 2.0: se avete buona memoria sapete che stiamo parlando della Radeon 9700 Pro.
Mentre ATi aveva già iniziato a vendere dall'estate 2022 le soluzioni basate su GPU R300, un vero portento per quel momento storico, NVIDIA sembrava essere stata presa in contropiede e dopo mesi di rumor fantasmagorici che raccontavano un progetto molto ambizioso, frutto tra l'altro dell'integrazione degli ingegneri 3DFX tra le sue fila (da qui FX, sia per richiamare gli "effetti speciali" che come rimando a 3DFX), ecco che iniziarono a trapelare notizie meno incoraggianti sulla produzione, allora a 130 nanometri presso TSMC.
GeForce FX 5800 Ultra
Si iniziò a parlare di obiettivi mancati e in effetti il progetto dovette subire una revisione, cosa che lo fece slittare al 2003. Arrivato finalmente nelle mani dei recensori, evidenziò però tutti i suoi limiti, a partire dal sistema di raffreddamento. La GeForce FX 5800 Ultra aveva un sistema di raffreddamento dual-slot che per l'epoca era enorme e stonava con la piccola ventola che permetteva alla 9700 Pro di restituire grandi prestazioni.
Neanche a dirlo, il sistema di raffreddamento risultò più rumoroso della controparte, quasi il preludio a prestazioni altalenanti e non del tutto soddisfacenti. In alcuni giochi e scenari di test la regina delle GeForce FX riusciva a sopravanzare la Radeon 9700 Pro di poco, ma in molti casi finiva indietro di un margine superiore. Inoltre, poco dopo, ATI mise in campo la Radeon 9800 Pro, una scheda basata su GPU R350 e frequenze maggiori.
Radeon 9700 Pro
Tra le scelte che denotavano l'affanno di NVIDIA vi fu anche quella di introdurre i Pixel Shader 2.0A, una revisione interna con miglioramenti rispetto alla versione 2.0 che poi vennero implementati n Pixel Shader 3.0. L'estensione proprietaria di NVIDIA non venne adottata o implementata al meglio dagli sviluppatori, e questo fu un problema. La casa di Santa Clara cercò di correre ai ripari con le FX 5900, ma il vero riscatto arrivò solo con le GeForce 6800.
GeForce GTX 480, così calde da cuocerci sopra le uova!
Un altro flop nella storia di NVIDIA, non tanto in termini prestazionali, prende il nome di GeForce GTX 480. Basata su architettura Fermi e una GPU GF100 prodotta a 40 nanometri da TSMC parzialmente abilitata, la scheda è nota negli annali come eccessivamente calda.
Non solo le schede erano dotate di dissipatori voluminosi e rumorosi, ma presentavano una griglia metallica centrale che diventava davvero molto calda, tanto che all'epoca qualcuno provò a cuocerci un uovo, con discreta fortuna.
La GeForce GTX 480 aveva 480 CUDA core e 1,5 GB di memoria GDDR5 su bus a 384 bit. La GPU occupava ben 529 millimetri quadrati e la scheda aveva un TDP di 250W, difficili da gestire per il dissipatore a singola ventola di tipo blower dell'epoca. Non ci credete? Ecco degli estratti della recensione di allora apparsa su HWUpgrade:
"Chi ha affermato sino ad ora che le schede GeForce GTX serie 400 consumassero tanto si sbagliava, e non di poco. Queste schede non consumano tanto, ma consumano troppo. Meglio sarebbe scrivere TROPPO, ma la netiquette ci impone un po' di contegno".
"I consumi elevati implicano requisiti ben precisi per l'alimentatore del sistema, un sistema di raffreddamento che è rumoroso e una oculata scelta del case nel quale montare la scheda, e al quale garantire il più efficace ricambio d'aria interno. Abbiamo analizzato queste schede in un sistema aperto, come sempre accade per i test delle schede video in redazione: in più occasioni abbiamo rischiato di scottarci mani e dita dovendo sostituire le schede GTX 400 per sostituirle con altre. Non che le proposte ATI Radeon HD 5000 siano 'fredde', ma a memoria non ricordiamo di aver mai voluto un guanto da barbecue per rimuovere una scheda video da un sistema".
GeForce GTX 970, quando il problema è la poca trasparenza
Un caso che sicuramente ricorderanno in molti è quello della GeForce GTX 970, un fiasco anzitutto comunicativo perché la scheda non andava affatto male per l'epoca, ma poi si scoprì che dei 4 GB di memoria GDDR5 a bordo quelli usabili in modo efficace erano solo 3,5 GB.
Ciò avveniva perché l'architettura di memoria delle GPU Maxwell si basava su una tecnica che segmentava la memoria, scelta da NVIDIA per dotare di maggiore VRAM anche le schede con chip in configurazione castrata. "La GTX 970 è una scheda da 4 GB", disse il CEO di NVIDIA. "Tuttavia, l'ultima parte di 512 MB del gigabyte aggiuntivo è segmentata e con una bandwidth ridotta. Si tratta di un buon progetto perché siamo stati in grado di aggiungere 1 GB in più alla GTX 970 e i nostri ingegneri software possono mantenere i dati usati meno frequentemente nel segmento da 512 MB".
Jonah Alben, allora Senior VP of Hardware Engineering, disse che la scheda "funzionava esattamente per come era stata progettata" e che questo comportamento permetteva alla GTX 970 di avere un bus a 256 bit.
Oltre a quel "problema" per NVIDIA ve ne fu un altro più "salato": comunicò dati sbagliati per le ROPs e la cache L2, passando dai 64 e 2048 KB indicati inizialmente a 56 e 1792 KB. La spiegazione tecnica non bastò a molti utenti e la polemica montò fino a una class action che, nel 2016, si chiuse con un accordo: NVIDIA dovette risarcire gli acquirenti a stelle e strisce della GTX 970 con 30 dollari ciascuno.
Un altro problema delle schede Maxwell riguardava il supporto all'Asynchronous Compute delle API DirectX 12, inefficiente se paragonato alle soluzioni GCN di AMD. La funzionalità però non prese grande piede nei giochi di allora quindi le vendite non ne risentirono.
NVIDIA e la serie 8000 su notebook, quanti problemi!
Apple, HP, Dell e probabilmente molti altri produttori di notebook tra il 2006 e il 2008 si trovarono con più di qualche gatta da pelare per colpa di NVIDIA. La casa di Santa Clara, che forniva loro i chip grafici, non può certo vantare le GPU mobile della serie 8000 tra i suoi prodotti più riusciti perché gli utenti manifestarono una miriade di problemi che pesarono sia sulla sua immagine pubblica che sui conti finanziari.
All'origine del problema vi erano non meglio precisate problematiche produttive che, però, avevano un chiaro risvolto: la GPU si surriscaldava oltremodo, dando una serie di noie tra cui artefatti a schermo e nei casi peggiori l'assenza completa di segnale video.
Il problema fu così grande che Apple dovette correre ai ripari per i suoi MacBook Pro con GPU GeForce 8600M GT, estendendone la garanzia e garantendo la riparazione gratuita in caso di problemi. Altre società aggiornarono i firmware dei notebook per aumentare la velocità di rotazione delle ventole e dissipare meglio il calore, con il risvolto di aumentare la rumorosità e sottoporre a maggiore stress una parte meccanica come le ventole.
Come abbiamo scritto all'inizio, questo articolo seppur basato sullo spunto di un lettore riguardo la GeForce FX 5800 Ultra, non nasce come monotematico su NVIDIA, quindi cos'è successo in casa AMD? Tutte rose e fiori? No, anche la seconda forza del mercato GPU può annoverare nella sua storia progetti meno riusciti di altri, ma quali? Ecco quelli di cui ci ricordiamo.
Radeon HD 2900 XT, un asciugacapelli in formato scheda video
La Radeon HD 2900 XT fu la prima scheda video del post acquisizione di ATI Technologies da parte di AMD, ma anche la prima DirectX 10 della società. Basata sul chip R600 prodotto a 80 nanometri, la soluzione arrivò in forte ritardo sulla concorrenza di NVIDIA, la serie GeForce 8000, ma anche con diversi problemi che ci portano a inserirla facilmente in questa classifica di scivoloni.
La HD 2900 XT nasceva come concorrente della GeForce 8000 GTS, una soluzione che non rappresentava il vertice dell'offerta NVIDIA (occupato dai modelli 8800 GTX e Ultra): le prestazioni in linea di massima c'erano, anche se inizialmente i driver erano molto acerbi, ma il progetto era viziato da un alto consumo energetico, temperature d'esercizio elevate e infine una rumorosità ben più alta delle proposte avversarie.
Dalla recensione del lancio: "Le più forti perplessità nascono dall'elevato consumo energetico, dalla rumorosità di esercizio e dalle temperature raggiunte dalla GPU sotto stress. La Radeon HD 2900 XT consuma più di una GeForce 8800 Ultra, è più rumorosa sempre prendendo come riferimento la top di gamma NVIDIA e raggiunge le temperature della GeForce 8800 GTX, a fronte di prestazioni simili in diversi casi alla GeForce 8800 GTS con 640 MB".
Una piccola nota positiva, però, l'abbiamo trovata: AMD riuscì a siglare un accordo con Valve per fornire agli acquirenti della scheda un bundle composto da Half-Life 2 Episode Two, Team Fortress 2 e Portal, tutti scaricabili da Steam. Mica pizza (ben cotta grazie alla 2900 XT) e fichi.
Radeon R9 Fury X, innovativa ma sotto le attese
Probabilmente alcuni non saranno d'accordo nel vedere la Radeon R9 Fury X in questo articolo e anche noi siamo stati combattuti, ma abbiamo deciso di tirare dritto, forse anche per masochismo. La scheda era innovativa, va riconosciuto, perché su un unico package metteva la GPU e la memoria HBM, una prima assoluta che ha fatto da apripista a tutti gli sviluppi che abbiamo poi visto prendere piede negli ultimi anni. Era il 2015.
Ciò permise ad AMD di creare una scheda video di dimensioni molto contenute (chi si ricorda la R9 Nano?) ma per gestirne le temperature fu costretta a dotarla di un sistema di raffreddamento a liquido da 120 mm, peraltro creato insieme a Cooler Master. La scheda si rivelò meno veloce della GeForce GTX 980 Ti, consumava leggermente di più e richiedeva due cavi a 8 pin per l'alimentazione. All'epoca si lamentava anche l'assenza del supporto HDMI 2.0.
Insomma, non fu una proposta particolarmente riuscita, per quanto non così male aveva però più difetti che pregi, in un momento in cui tanto AMD quanto NVIDIA erano bloccate ai 28 nanometri per "colpa" di TSMC che non riuscì ad assicurare volumi adeguati con i processi produttivi più avanzati.
Radeon RX 6500 XT, le buone intenzioni non sempre pagano
Un anno e qualche mese fa la situazione sul mercato delle schede video era peggiore di quella odierna, i prezzi erano ancora molto alti e la disponibilità limitata. Molti gamer lamentavano l'impossibilità di trovare schede video a prezzi accessibili e così AMD decise di proporre la Radeon RX 6500 XT, una soluzione di fascia bassa con GPU Navi 24 con 1024 stream processor, accompagnata da soli 4 GB di memoria su bus a 64 bit e un'interfaccia PCIe 4.0 x4.
Si trattava di una scheda grafica pensata per i molti che cercavano un possibile upgrade a schede come i modelli GeForce GTX 1650 o la Radeon RX 570 4 GB. AMD la presentò con un prezzo di listino di 199 dollari esentasse per gli Stati Uniti, mentre in Europa arrivò a 215 euro (IVA inclusa).
I problemi della scheda però emersero tutti in fase di test, frutto delle specifiche all'osso, soprattutto del bus a 64 bit e della capacità di memoria limitata. Quando accoppiata a una piattaforma PCI Express 3.0, il target naturale della 6500 XT, mostrava prestazioni ben al di sotto delle attese. Per questo motivo non ci fu altra soluzione che bocciarla.
Tra l'altro, AMD non molto tempo prima aveva pubblicato un post in cui derideva le GPU dotate con 4 GB di memoria, affermando che erano incapaci di gestire la grafica dei videogiochi moderni con buone impostazioni in Full HD. La Radeon RX 6500 XT andava contro quelle parole, tanto che AMD in un primo momento rimosse quel post. Poi, pizzicata da stampa e appassionati, lo riportò online, facendo chiaramente una magra figura.
Bonus nostalgia: Voodoo 5 5500
L'ultima scheda di 3DFX prima della bancarotta e il passaggio nelle mani di NVIDIA. La Voodoo 5 5500 arrivò in ritardo e si ritrovò a competere con le GeForce 2 GTS che si dimostrarono più veloci. La soluzione di 3DFX contava su due GPU VSA-100 prodotte a 220 nanometri sulla stessa scheda, accompagnate da 64 MB (32 MB per chip) di memoria SDR.
Nella prova svolta su Hardware Upgrade, Paolo Corsini mise in luce molti dei problemi di questa soluzione emersi durante la prova:
- La 3DFX Voodoo 5 5500 era "mediamente più lenta delle schede GeForce 2 GTS 32 e 64 MB" e costava solo 50 dollari in meno
- Il contesto: l'API Glide messa a punto da 3DFX e ottimizzata per sfruttare appieno le Voodoo era sul viale del tramonto
- Anzianità di progetto: mancanza di unità Transform & Lightning
- Problemi di saturazione della memoria con texture di grandi dimensioni
Insomma, non fu la scheda del riscatto e quello che è successo dopo è, nel bene o nel male, storia.
Conclusione
Esprimere giudizi netti, come questa lista di flop, è un esercizio davvero complesso, una di quelle partite che uno perde in partenza perché si sa già che si scontenterà la maggior parte dei lettori. "Io avrei messo questa", "Avete sbagliato, la scheda X non è stata un flop" sono solo alcuni dei commenti che ci aspettiamo sotto questo articolo, anche perché noi stessi non abbiamo avuto un dubbio, ma mille, e incertezze su cosa inserire.
Abbiamo cercato di eliminare il tema soggettivo - ma probabilmente non ci siamo del tutto riusciti - dalla selezione, perché se avessimo dovuto farlo, la lista sarebbe stata più lunga: ad esempio, chi vi scrive avrebbe inserito la Radeon VII, una scheda rumorosa e sbagliata nel modo in cui è arrivata sul mercato, cosa che la rese del tutto ininfluente.
Altri avrebbero inserito la GeForce RTX 2080 perché poco innovativa, supporto al ray tracing a parte, rispetto alle GeForce GTX 1000 top di gamma. Andando ancora più indietro, abbiamo letto lunghi dibattiti sulla Radeon R9 285 o la 290X. E siamo certi che qualcuno avrebbe voluto vedere anche Intel in questo articolo, dal progetto Larrabee mai arrivato sul mercato (e per questo non inserito) fino alle ultime ARC, troppo in ritardo e non competitive come previsto per fare male a NVIDIA e AMD.
Ognuno ha la sua personalissima lista di top e flop del tutto rispettabile, quindi vi invitiamo a condividerla nei commenti, spiegando anche le vostre ragioni se lo riterrete opportuno.
153 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info"GeForce RTX 480, così calde da cuocerci sopra le uova!"
Le uova restano ben cotte ma quella era una GTX.
"GeForce RTX 480, così calde da cuocerci sopra le uova!"
Le uova restano ben cotte ma quella era una GTX.
Eh sì, maledizione.
Comunque avrei aggiunto Vega, in tempi recenti e' stato un grandissimo flop.
Consumi elevati, prestazioni inferiori alla concorrenza (che tanto avevano deriso prima del lancio).
Anche le r9 290 furono un discreto flop. Le prestazioni c'erano ed era un ottima rivale della 970/980.
Peccato che il reference design fosse pessimo e non potevano rilasciare modelli custom per mesi uccidendo di fatto la gpu. Fu anche la prima di una lunga serie di gpu voltata troppo aggressiva.
Certo che a vedere i valori dei tanto (giustamente) criticati consumi della 2900 XT paragonati a quelli delle attuali schede..
Io ho anche le XTX
ps
La Fury Nano è stata una delle schede più equilibrate e soddisfacenti che ho avuto
"GeForce RTX 480, così calde da cuocerci sopra le uova!"
Le uova restano ben cotte ma quella era una GTX.
Se la RTX480 era calda allora dovresti vedere le attuali
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
In verita' lo era la 5970 (soluzione dual gpu).
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
Si si per carità
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
Bè, quelle attuali a paragone in uv scaldano meno di Fermi!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".