Corsair One a100, Ryzen 9 3950X e RTX 2080 Ti in formato compatto: una bomba!

Abbiamo provato il Corsair One a100, il nuovo PC desktop dell'azienda statunitense, nella configurazione con Ryzen 9 3950X, 32 GB di memoria DDR4-3200, RTX 2080 Ti, SSD PCIe 4.0 da 1 TB e hard disk da 2 TB. Si tratta di un sistema che può svolgere il compito di workstation che di PC da gioco, grazie alla potenza offerta e al formato compatto. C'è però un importante scoglio: il prezzo. Ecco cosa ne pensiamo.
di Manolo De Agostini pubblicato il 21 Luglio 2020 nel canale SistemiCorsair
67 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoEccola la tua lacuna! e pure grossa! Lo vedi che NON HO FRAINTESO UN BEL NIENTE?
Perché non sei convinto di questo?
Le cose sono 2:
- o non hai mai fatto encoding usando il 100% dei core a disposizione,
- o sei abituato ad Intel, che all'aumentare dei core , l'aumento computazionale non è proporzionale (forse questo lo sai bene, visto che insisti tanto sul punto...)
Lo vedi che ci siamo arrivati al punto? Io ti sto rispondendo insistentemente perché capisco che ti sfugge qualcosa....
Ora restiamo in casa AMD (sennò dovremmo fermarci a 28 core):
FINO A 32 CORE le prestazioni salgono (quasi) linearmente! Sul 64 core no, semplicemente perché altrimenti avrebbero dovuto fare un TR da 500W e comincia ad essere un po' difficile freddarlo...
Quindi in una conversione qualsiasi dove un 3900X può impiegare 2 ore, il 3950X ne impiega 30 di meno.
Così come se decidessi di usare solo 6 cores anzichè 12 della stessa cpu impiegheresti esattamente il doppio del tempo.
Allora, a differenza di qualcuno qui dentro io non ho posizione prese per principio quindi non ho alcun problema a dire che non ho alcuna esperienza di encoding su architettura AMD (l’idea è di assemblarne uno prossimamente... anche se forse attendo Zen3), però siccome >TUTTE le review che ho letto dicono diversamente, vi chiedo una dimostrazione sul fatto che scalino cosi linearmente.
Perché invece di encoding su Intel ho parecchia esperienza diretta e tra 2, 4, 6 ed 8 core non c’è nulla di vagamente lineare.
Se però leggo prove delle maggiori testate mondiali che mi dicono diversamente, come minimo chiedo a chi sostiene questa tesi di dimostrarlo.
Perché invece di encoding su Intel ho parecchia esperienza diretta e tra 2, 4, 6 ed 8 core non c’è nulla di vagamente lineare.
Se però leggo prove delle maggiori testate mondiali che mi dicono diversamente, come minimo chiedo a chi sostiene questa tesi di dimostrarlo.
Ciao Max, al momento non ho benchmark e review a portata di click, comunque l'editing video o l'encoding in genere è diverso dal rendering puro come nei programmi 3d o tipo cinebench, i quali usano la cpu al 100%. In programmi tipo Premiere o Photoshop non viene usata la cpu al 100%, per questo potrebbe non esserci una differenza marcata e lineare tra cpu con diverso numero di core.
Nemmeno a livello hardware in teoria visto che non vi sono requisiti da rispettare.
Questa è una normale configurazione mITX con 3950X+2080Ti di fascia alta come qualunque altra analoga, che poi Corsair decida di rivolgerla principalmente a chi gioca lascia il tempo che trova, non impone comunque restrizioni di nessun tipo. Chi è interessato a tale configurazione può comperarla anche senza dover essere un giocatore.
E perchè mai questo ? Da quando l'accelerazione hardware fornita dalle GPU non è usata nel rendering, nel video editing stesso, nel folding o anche nel mining ? La configurazione in oggetto è ottima anche per fare tutte queste cose.
Vabbè questa è un arrampicata sugli specchi...
Tu sei libero di prenderti uno Xeon o un Threadripper ed usarlo per mail e solitario, questo non cambia il fatto che una configurazione normalmente viene indirizzata ad un campo di utilizzo più o meno specifico. Ed in questo caso è il gaming. O mi dici che chi fa mining si assembla un PC con le lucine RGB ?
Questo è un PC che nasce pensato per il gaming, e mi sono francamente stancato della discussione sulla sua finalità...
Almeno un occhiata alla pagina del produttore dagliela:
Link ad immagine (click per visualizzarla)
Ok ragazzi, vi prego a questo punto sono curioso...
sono un informatico da 30 anni e non ho mai visto un applicazione scalare linearmente all’aumento dei core.
A questo punto , non avendo alcuna esperienza diretta sui Ryzen, e non capendo che programmi usate (io uso principalmente Handbrake), vorrei delle prove dirette su quanto asserite.
sono un informatico da 30 anni e non ho mai visto un applicazione scalare linearmente all’aumento dei core.
A questo punto , non avendo alcuna esperienza diretta sui Ryzen, e non capendo che programmi usate (io uso principalmente Handbrake), vorrei delle prove dirette su quanto asserite.
Ma infatti io ti stavo dando ragione per certi aspetti, forse non mi sono spiegato bene. Gli unici programmi che conosco dove si può riscontrare una buona scalabilità all'aumentare dei core sono i rendering 3d e similari come cinebench e blender. Se non sbaglio dipende anche dal sistema operativo, ho letto che Windows non è ottimizzato bene con più di 32 core, mentre con Linux c'è una migliore scalabilità.
Ci sono encoder che però li usano TUTTI , e le performance sono (quasi) lineari.
Sullo stesso programma di montaggio video però, potresti avere sorprese se durante l'encoding fai ad esempio anche resizing, per non parlare di testo in movimento, magari con ombre, ecc.... Ecco: ogni cosa che hai nella timeline può usare un numero maggiore di core OPPURE NO , e alcuni software si fermano COMUNQUE ad un numero massimo magari inferiore alla cpu usata (tipo Handbrake).
Detto ciò, il tuo modo di porti è molto scontroso e sei partito con il piede decisamente sbagliato.....: prima asserisci una cosa, poi quando te la si fa notare svii parlando di altro, poi quando ti si prova dove la pensi nel modo sbagliato scrivi che gli altri ti fraintendono, poi torni sui tuoi passi rispondendo in modo molto "piccante" (evito di metterti tutti i quote, perchè direi che puoi arrivarci da solo...), quotandoti solo l'ultimo "...non raccontiamo favolette...."
Detto ciò, avevo molta voglia di lasciarti cuocere nel tuo brodo, ma non so perchè, invece ti ho fatto un test.... come a far contento un bambino... informatico da 30 anni....
Ovviamente, per evitare equivoci, non ho usato il PBO (vatti a leggere cos'è
Per emulare un 3900x (12 core), da bios ho abilitato solo (3+3core)xCCD
(ti ricordo che sul 3950x ci sono 2CCD da 8core e ogni CCD diviso in 2CCX da 4core ognuno)
Link ad immagine (click per visualizzarla)
Ho usato Vegas Pro 16 , il video è un 1080p/59,940fps di 2 minuti circa, encoder selezionato Mainconcept HEVC.
Questo è il test fatto con 12 core:
Link ad immagine (click per visualizzarla)
mentre questo è il test con tutti i 16 core:
Link ad immagine (click per visualizzarla)
Puoi vedere i tempi sugli screen...
non ho fatto i conti, ma se non ti basta questo (e non è detto che Vegas con le sue codifiche interne riesca a dare il meglio), allora considera questo il mio ultimo post sull'argomento e sarò ben felice di metterti nella lista che reputo adatta a te... insieme a molti altri...
Questo è un PC che nasce pensato per il gaming, e mi sono francamente stancato della discussione sulla sua finalità...
Almeno un occhiata alla pagina del produttore dagliela
Il termine "[I]gaming PC[/I]" non implica requisiti o certificati per essere così categorizzati.
sono un informatico da 30 anni e non ho mai visto un applicazione scalare linearmente all’aumento dei core.
E' l'ABC da quando sono nate le prime CPU dual core.
Rendering ed encoding sono in grado di utilizzare tutti i cores da sempre, limitazioni software esclusi.
https://tpucdn.com/review/amd-ryzen...ges/blender.png
https://tpucdn.com/review/amd-ryzen...ages/corona.png
https://tpucdn.com/review/amd-ryzen...ges/keyshot.png
Eventuali imperfezioni riguardo eventuali linearità in genere sono dovute a differenze di frequenza ed eventuali latenze o colli di bottiglia interni.
Ci sono encoder che però li usano TUTTI , e le performance sono (quasi) lineari.
Sullo stesso programma di montaggio video però, potresti avere sorprese se durante l'encoding fai ad esempio anche resizing, per non parlare di testo in movimento, magari con ombre, ecc.... Ecco: ogni cosa che hai nella timeline può usare un numero maggiore di core OPPURE NO , e alcuni software si fermano COMUNQUE ad un numero massimo magari inferiore alla cpu usata (tipo Handbrake).
Detto ciò, il tuo modo di porti è molto scontroso e sei partito con il piede decisamente sbagliato.....: prima asserisci una cosa, poi quando te la si fa notare svii parlando di altro, poi quando ti si prova dove la pensi nel modo sbagliato scrivi che gli altri ti fraintendono, poi torni sui tuoi passi rispondendo in modo molto "piccante" (evito di metterti tutti i quote, perchè direi che puoi arrivarci da solo...), quotandoti solo l'ultimo "...non raccontiamo favolette...."
Detto ciò, avevo molta voglia di lasciarti cuocere nel tuo brodo, ma non so perchè, invece ti ho fatto un test.... come a far contento un bambino... informatico da 30 anni....
Ovviamente, per evitare equivoci, non ho usato il PBO (vatti a leggere cos'è
Per emulare un 3900x (12 core), da bios ho abilitato solo (3+3core)xCCD
(ti ricordo che sul 3950x ci sono 2CCD da 8core e ogni CCD diviso in 2CCX da 4core ognuno)
Link ad immagine (click per visualizzarla)
Ho usato Vegas Pro 16 , il video è un 1080p/59,940fps di 2 minuti circa, encoder selezionato Mainconcept HEVC.
Questo è il test fatto con 12 core:
Link ad immagine (click per visualizzarla)
mentre questo è il test con tutti i 16 core:
Link ad immagine (click per visualizzarla)
Puoi vedere i tempi sugli screen...
non ho fatto i conti, ma se non ti basta questo (e non è detto che Vegas con le sue codifiche interne riesca a dare il meglio), allora considera questo il mio ultimo post sull'argomento e sarò ben felice di metterti nella lista che reputo adatta a te... insieme a molti altri...
Il modo di porti scontroso è il tuo, tanto per iniziare, visto che questa discussione non sposta comunque di un millimetro il mio punto di partenza (il 3950x è “inutile” in una configurazione gaming).
Detto questo, il tuo test dimostra inequivocabilmente che l’architettura AMD almeno con quel software scala in modo piuttosto lineare con il numero di core, a differenza di quella Intel, quindi senza dubbio se rendering/encoding fanno parte del workflow abituale i vantaggi sono concreti (cosa che ho scritto dall’inizio, anche se non pensavo in modo così netto).
Quanto alle tue liste, francamente non mi importa assolutamente nulla... per educazione però ti ringrazio del test, chiaro, su un applicazione che non ho mai usato.
Non ho MAI avuto la pretesa di essere un esperto in questo specifico campo (ormai non sviluppo neppure più da anni essendo passato al managing, e comunque ero nel calcolo performance e planning) ed utilizzo da molto tempo solo handbrake per questi compiti, quindi se posso apprendere qualcosa di nuovo ben venga.
Il termine "[I]gaming PC[/I]" non implica requisiti o certificati per essere così categorizzati.
E chi ha parlato di certificazioni... qui si parlava di posizionamento di mercato e relativa scelta di componenti.
Certificazioni gaming del resto non esistono...
Rendering ed encoding sono in grado di utilizzare tutti i cores da sempre, limitazioni software esclusi.
https://tpucdn.com/review/amd-ryzen...ges/blender.png
https://tpucdn.com/review/amd-ryzen...ages/corona.png
https://tpucdn.com/review/amd-ryzen...ges/keyshot.png
Eventuali imperfezioni riguardo eventuali linearità in genere sono dovute a differenze di frequenza ed eventuali latenze o colli di bottiglia interni.
No, non è l’ABC perché le cpu Intel non scalano con la stessa linearità, ma grazie dei link, che dimostrano come quelle AMD invece lo facciano in modo abbastanza netto.
Sui Ryzen ho molto da scoprire ed è uno dei motivi per cui vorrei assemblare una configurazione AMD al prossimo upgrade.
Di sicuro non sarà un 3950X comunque visto il mio utilizzo
Si si il tuo punto è chiarissimo, solo che il discorso è deragliato completamente quando qualcuno l’ha letto come una mia critica al 3950X, quando il mio punto sin dal primo intervento è stato semplicemente “non serve in un pc da gaming”.
Il 10900 ha 10 cores, non 12, e questa scalabilità non è una peculiarità AMD, questo tipo di applicazioni usano sempre tutti i cores da oltre 15 anni qualunque sia il loro numero ed è risaputo praticamente da sempre.
Come detto se ci sono discrepanze sono influenzate da altre specifiche, come frequenza, colli di bottiglia dovuti a Cache, RAM o latenze aggiuntive in presenza di più CCX riguardo i Ryzen, ma i cores sono sempre sfruttati da queste applicazioni.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".