SSD e 25 nanometri, non è tutto oro quel che luccica

Le possibilità che derivano dalla miniaturizzazione del processo produttivo non riguardano solo la diminuzione di prezzi per l'utente finale, ma vedono anche riflessi diretti sull'affidabilità finale delle memorie
di Gabriele Burgazzi pubblicata il 11 Febbraio 2011, alle 10:25 nel canale StorageLo sviluppo di memorie flash con processi produttivi sempre più miniaturizzati ha come vantaggio diretto quello di poter andare a ridurre i costi di commercializzazione. Ma non è l'unico effetto collaterale che implica. Lo sviluppo delle nuove memorie flash con il rinnovato processo produttivo ha comportato anche una diminuzione della durata nel tempo dei chip.
Procediamo per passi dunque, al fine di capire quali problemi queste caratteristiche possano comportare sul mercato. Per spiegare le cause portiamo un esempio: diversi produttori, come OCZ, hanno già ridotto in passato la capacità nominale dei propri dischi. I primi giorni del mese di Febbraio hanno visto l'inizio della commercializzazione delle prime soluzioni SSD con chip NAND prodotti a 25 nanometri, e la capacità nominale è scesa.
Apparantemente senza una motiviazione plausibile: si è così passati da 120GB di capienza a 115GB. Perchè? OCZ, in questo caso, si è trovata forzata a bloccare una maggior parte di spazio su disco al fine di garantire l'affidabilità del disco.
L'unità Vertex 2 è stata caratterizzata dall'impiego di memorie flash prodotte con processo a 34 nanometri, almeno fino a pochi giorni fa. Il grafico a seguire mostra come, in seguito alla miniaturizzazione dei chip di memoria, diminuisca la durata nel tempo di tali componenti e salgano i requisiti ECC per mantenere l'affidabilità dei dati:
Il processo a 34 nanometri è stato utilizzato per la produzione di memorie che sono state affiancate sugli SSD con controller SandForce di prima generazione, proprio come Vertex 2. Tali moduli di memoria avevano una vita pari a 5000 cicli di scrittura e cancellazione. Con il passaggio a 25 nanometri la vita media dei moduli scende a 3000 cicli di scrittura e cancellazione.
La produzione delle nuove unità a stato solido, sviluppate con memorie a 25 nanometri, non può garantire una durata nel tempo inferiore rispetto agli SSD di precedente generazione, ed è stato pertanto necessario ricorrere ad una soluzione.
E in questo senso è diventata fondamentale l'architettura del controller e le differenti tecnologie che sono state integrate al fine di migliorare la durata nel tempo delle unità SSD.
Nel caso specifico andremo a parlare delle soluzioni prodotte con controller SandForce. Quando parliamo delle tecnologie integrate per migliorare la durata nel tempo delle unità SSD facciamo riferimento a DuraCell: questa particolare funzionalità si occupa di gestire al meglio l'utilizzo delle celle di memoria, spalmando in modo omogeneo le cancellazioni e la scrittura dei dati. In questo modo sarà così possibile massimizzare l'utilizzo del disco.
A tale funzionalità si affianca anche quella denominata RAISE (Redundant Array of Independent Silicon Elements), che riserva una parte della memoria dell'SSD a ECC (algoritmi di correzione degli errori) al fine di garantire spazio a sufficienza per ricreare i dati in caso vengano identificati dei problemi. La tecnologia RAISE funziona in base anche alla densità dei chip NAND utilizzati: nel caso delle memorie a 25 nanometri la densità maggiore rispetto alle vecchie soluzioni ha portato a raddoppiare l'impiego di memoria dedicata, salendo così da 4 a 8GB.
Ecco allora perchè sarà possibile trovare sul mercato unità con capienza dichiarata da 120GB ma che, una volta formattate, non offriranno più di 115GB.
70 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa gli importa molto di non essere disinformato: se un disco ha 115gb e non 120, l'utente finale deve saperlo e non pagarlo per un disco da 120gb.
Per quanto mi riguarda ci possono essere anche 10 terabytes nei chips di un ssd, ma se poi all'atto pratico il so ne vede solo 100gb sull'etichetta dev'essere riportato 100gb, diversamente è pubblicità ingannevole.
Resta la prova che gli SSD hanno molti pregi ma anche limiti tali che non possono ancora rimpiazzare gli hdd tradizionali.
La scelta ssd per il sistema e hdd per i dati resta ancora la soluzione vincente.
Se poi dopo 3 anni l'ssd va in vacca pazienza.. ne piglio uno aggiornato e rifaccio il sistema!
Ma gli importa molto di non essere disinformato: se un disco ha 115gb e non 120, l'utente finale deve saperlo e non pagarlo per un disco da 120gb.
Per quanto mi riguarda ci possono essere anche 10 terabytes nei chips di un ssd, ma se poi all'atto pratico il so ne vede solo 100gb sull'etichetta dev'essere riportato 100gb, diversamente è pubblicità ingannevole.
A dire il vero a me, dell'affidabilità della singola cella importa eccome.
non mi importa del fatto che, statistiche alla mano, vengano adottate strategie di correzione dell'errore volte a evitare data loss; se sono necessarie tecniche così spinte, significa che il medium non è di suo sufficientemente affidabile.
e come fai a saperlo? visto che i codici sono rimasti invariati....
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".