|
|
|
|
Strumenti |
31-01-2024, 22:13 | #21141 | |||
Senior Member
Iscritto dal: May 2005
Città: Palermo
Messaggi: 2216
|
Quote:
Quote:
Quote:
__________________
Ho trattato e concluso positivamente con:mtitone, Grave Digger, bimbumbay, dottorpalmito, MasterCooper, devil106, Salvatore Caligiuri, michele21_it, antanio, totocellux, SABULTEGRA, joopool, thefire1960, xcloud, Stappern, OVERtheWORSE, blumare, lucifero.x, ronald0 Ultima modifica di isomerasi : 31-01-2024 alle 22:19. |
|||
31-01-2024, 22:27 | #21142 |
Senior Member
Iscritto dal: Feb 2002
Città: Roma
Messaggi: 3371
|
Va bene ... grazie. Proporrò questi. Tra le marche meno note / "cinesumi", di SATA, si salva qualcosa ?
__________________
PC1 i7-7700K|Asus Prime Z270P|32GiB RAM|Radeon Rx570 8GiB|Crucial P5 500 GiB|HD Ironwolf 4TiB,2X(Raid-0)|Bluray LG|DVB-T Asus PE6300H|Dell U2413|Windows 10 LTSC 2019|PC2 i7-3770|Asus P8H77M-LE|16GiB RAM|Nvidia GTX690 4GiB|Sandisk 120 GiB|HD WD-Red 4TiB,2X(Raid-0)|DVD LG|DVB-S Cinergy S2|Hannspree XmS Boston|Windows 10 LTSC 2019 |
31-01-2024, 22:33 | #21143 |
Senior Member
Iscritto dal: May 2005
Città: Palermo
Messaggi: 2216
|
io consiglierei solo roba buona, ma se non voglio spendere...meglio il bx che i cinesi...
__________________
Ho trattato e concluso positivamente con:mtitone, Grave Digger, bimbumbay, dottorpalmito, MasterCooper, devil106, Salvatore Caligiuri, michele21_it, antanio, totocellux, SABULTEGRA, joopool, thefire1960, xcloud, Stappern, OVERtheWORSE, blumare, lucifero.x, ronald0 |
01-02-2024, 02:02 | #21144 | |
Senior Member
Iscritto dal: Dec 2015
Messaggi: 6149
|
Quote:
Ed un altro 120GB (questo più del 2016-18) montato in un sistema che credo di aver acceso negli ultimi 3 o 4 anni forse 10 volte e sarà già 6 mesi che è spento. Volendo (tanto prima o poi pensavo di recuperarlo) potrei riaccenderlo (il primo) e vedere se ci sono ancora su dei dati (non ricordo se l'ho formattato, ma di certo il suo contenuto è stato copiato) e se ci sono se hanno delle perdite (anche se non saprei che sw usare per scoprire file corrotti causa data retention andata) anche se essendo ancora MLC dovrebbe essere più longevo sulla retention Comunque altri SSD (dei 860EVO da 250GB) oltre ai due già citati in passato li ho lasciati spenti a lungo (anche fino a 2 anni nel caso peggiore) senza preoccuparmi (magari sbagliando) della possibile perdita di dati. E non ho mai notato (ma neanche ho fatto test approfonditi) problemi alla riaccensione. Finora l'unico SSD che mi ha dato un problema (ino) è stato un 850EVO da 1TB che pochi mesi fa dopo forse 5-6 anni di uso ha generato un bad block poi riallocato con perdita di un file sul file system (file poco vitale anzi pure cancellabile ormai e pure per fortuna, non li faccio quasi mai, backuppato). Però era anche con TBW quasi al 100% (anche se marcato ancora Buono da Magician). Mi sono accorto del problema perché avevo lanciato una lettura di tutti file (per fare hashing degli stessi) ed arrivato a quello non riusciva più a leggerlo e lanciando una scansione superficiale un blocco compariva come bad (sparito dopo la riformattazione, ma comparsi settori riallocati nei dati Smart). Ultima modifica di Yrbaf : 01-02-2024 alle 02:13. |
|
01-02-2024, 09:02 | #21145 | |
Senior Member
Iscritto dal: Jun 2005
Messaggi: 21960
|
Quote:
__________________
Stampanti multifunzione [Thread ufficiale - consigli per gli acquisti] |
|
01-02-2024, 11:00 | #21146 |
Senior Member
Iscritto dal: Mar 2008
Messaggi: 2644
|
Se non mi ricordo male la data retention di 1 anno era con l'ssd a fine vita, quindi con tutte le celle scritte il loro massimo numero di volte. Negli altri casi non dovrebbe essere un problema... Comunque non è una caso che ogni produttore gestisce come vuole, è uno standard JEDEC
__________________
MB Asus Rog Maximus Z690 Apex - CPU Intel Core i9 12900k @ pcore 5.1ghz ecore 4.1ghz - RAM G.Skill Trident Z5 rgb 6600mhz 32gb - GPU Zotac RTX 3080 TI Trinity @ 1800mhz - AUDIO Creative Sound BlasterX AE-5 - Creative GigaWorks S750 - SSD Samsung 950 Pro 512gb - HD Seagate Exsos X18 16tb - Seagate IronWolf 10tb - PSU Seasonic Prime Ultra Titanium 850 - CASE LianLi PC-O11 WGX - MONITOR Lg 27GP950 |
01-02-2024, 11:49 | #21147 |
Senior Member
Iscritto dal: Jun 2009
Messaggi: 4903
|
è più che altro una curiosità
un dato può essere sovrascritto in vari modi (per wipe) sovrascrivere un dato con 0, con 1, con valori casuali di 0 o 1 o con DoD 5220.22-M, cosa cambia a livello pratico? grazie in anticipo |
01-02-2024, 12:52 | #21148 |
Senior Member
Iscritto dal: Dec 2004
Città: Zena - Pegli
Messaggi: 1638
|
Non fa testo, ma per curiosità ho appena acceso un vecchio Hp6735s dove ho messo il mio primo ssd, un Crucial M4 da 128Gb.
Spento da dicembre 2022, acceso oggi e funziona perfettamente, sta aggiornando Windows 10 ... con una lista di cose in download paurosa !! E' comparso addirittura il banner "Preparati per Windows 11"...
__________________
Intel Core i5 12500 Msi Pro Z690-P 32Gb Corsair Dominator Platinum GTX1660Super Sk Hynix P41 1Tb Netac NV5000 2Tb Crucial MX500 500Gb WD Green 2Tb AC Baydream LG 29WK500 Beelink Mini S12Pro N100 16Gb Ssd 512Gb Samsung Galaxy Tab A7 Realme XT |
01-02-2024, 13:25 | #21149 | |
Senior Member
Iscritto dal: Jun 2005
Messaggi: 21960
|
Il fatto che SSD si accenda, parta e faccia gli aggiornamenti di Windows...
@makka: In effetti non fa testo... non è esattamente un test esaustivo per verificare il data retention. Sopra Yrbaf parlava di hashing dei files.
Ma fa sempre piacere ed è confortante vedere che un SSD almeno.... si accenda Quote:
Qualche settimana fa, @Liupen si era espresso qui sul data retention.
__________________
Stampanti multifunzione [Thread ufficiale - consigli per gli acquisti] Ultima modifica di giovanni69 : 01-02-2024 alle 13:29. |
|
01-02-2024, 13:29 | #21150 | |
Senior Member
Iscritto dal: Mar 2008
Messaggi: 2644
|
Quote:
Con l'ssd non hanno senso e andrebbero a diminuire la vita delle celle inutilmente (scrivendo tutte le celle per N volte). Su queste c'è il wipe o il secure erase che viene fatto a livello di firmware ed agisce sull'elettronica per azzerare i dati
__________________
MB Asus Rog Maximus Z690 Apex - CPU Intel Core i9 12900k @ pcore 5.1ghz ecore 4.1ghz - RAM G.Skill Trident Z5 rgb 6600mhz 32gb - GPU Zotac RTX 3080 TI Trinity @ 1800mhz - AUDIO Creative Sound BlasterX AE-5 - Creative GigaWorks S750 - SSD Samsung 950 Pro 512gb - HD Seagate Exsos X18 16tb - Seagate IronWolf 10tb - PSU Seasonic Prime Ultra Titanium 850 - CASE LianLi PC-O11 WGX - MONITOR Lg 27GP950 |
|
01-02-2024, 13:36 | #21151 | |
Senior Member
Iscritto dal: Jun 2009
Messaggi: 4903
|
Quote:
genericamente una semplice scrittura di zeri è sufficiente per eliminare definitivamente un file? |
|
01-02-2024, 14:02 | #21152 | ||||
Member
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 229
|
Quote:
Quote:
Tanto complicata, tanto poi lontana dalla realtà: Jedec impone che i dati si scrivano ad una temperatura X e che l'ssd venga conservato ad una temperatura Y; e ancora non dice che i dati devono poi esserci tutti, ma che ne rimanga con un tasso di errore sotto una soglia Z (UBER) Quote:
In un ssd? I primi 2 metodi sono una singola cancellazione (pari ad 1 ciclo p/e), ma se utilizzi metodi di sovrascrittura multipla ti ritroverai cancellazioni aggressive delle celle e altrettanto consumo di cicli p/e. Con: Ciclo p/e = quantità di GB del ssd = 1% in meno di vita in Crystaldiskinfo* Suppongo che con cancellazioni multiple, gli algoritmi di livellamento e garbage collection (che ovviamente non sanno cosa vuoi fare), creino una coda di write amplification che si sommerà alle cancellazioni, quindi magari (ipotizzo) un DoD 5220.22-M ne toglie 8% di vita e non solo 7. Insomma, ogni scrittura per l'ssd è un "predisporsi", che equivale a cancellare blocchi azzerando le celle di cui sono costituiti e questo sia che tu scrivi degli 0 sia che scrivi degli 1, anche se la cancellazione per accogliere il nuovo dato, coincide poi con il valore 1 vedi https://www.kioxia.com/content/dam/k...img_004_en.png Quote:
Con i software "normali" si riescono a recuperare dati solo se non si vanno a riscrivere quelli cancellati che in realtà sono ancora li e ad andare perso era la mappatura delle partizioni e l'indice dei frammenti dei files. Per un ssd vale questo stesso ragionamento (una scrittura è sufficiente per cancellare) ed in più - ai fini del recupero dati - il tipo di dispositivo con trim attivo tende ad anticipare la cancellazione dei blocchi per far spazio alle scritture, mescolando i frammenti dei files. Diventa molto difficile. EDIT: * NB. se l'ssd è scritto completamente ma c'è spazio che windows, linux, ecc considera libero, è probabile che ci siano già blocchi che l'ssd considera cancellati e che non cancellerà nuovamente; quindi magari non scende subito di 1, la % di vita dell'ssd.
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI Ultima modifica di @Liupen : 01-02-2024 alle 14:12. |
||||
01-02-2024, 15:07 | #21153 | |
Senior Member
Iscritto dal: Jun 2009
Messaggi: 4903
|
Quote:
in caso contrario quindi una scrittura di zeri o uni è sufficiente, al limite scrittura random ? |
|
01-02-2024, 16:44 | #21154 | ||
Senior Member
Iscritto dal: Dec 2015
Messaggi: 6149
|
Quote:
Ci sono vari tool che lo fanno e serve principalmente per :
Un tool per Windows che fa queste cose è HashMyFiles di NirSoft Peccato non abbia mai messo Hash veloci tra le opzioni Poi lo fa anche jDupes (da riga di comando), il quale ha lo scopo di ricercare il più velocemente possibile duplicati e poi elencarli, cancellarli (tutti tranne una copia), sostituirli con HardLink (rimangono tutti i duplicati ma lo spazio su disco diventa di una singola copia) E altri tool sia grafici che non. Nel mio caso credo che lo stessi facendo con uno script da me fatto in Python3 che elenca tutti i files in un percorso (e sotto percorsi) e li butta in un DB per poi farci (a mano) query di analisi e costruzione script di modifica filesystem. Tra le opzioni permette anche (con tutto il tempo che ci vuole a leggere ogni singolo file e calcolarne l'hash) di calcolare l'Hash iniziale (idea rubata a jDupes ed altri deduplicatori) e completo del file (e riportarlo in update sul DB). In questo caso uso xxHash 128 per massimizzare le prestazioni Quote:
Già il fatto che per fare di nuovo l'hashing di tutto (per fare un confronto firme) devi rileggere tutto di nuovo, ti dovrebbe fare scoprire celle non più leggibili. Ma anche nel caso il disco non segnalasse gli errori di lettura, ma semplicemente fornisse dati casuali da celle deteriorare, di certo la firma Hash divergerebbe e scopriresti i file coinvolti nella perdita di dati (per sapere i singoli blocchi devi fare un confronto con una copia buona altrimenti non c'è modo, se non è il disco stesso a segnartelo). Ultima modifica di Yrbaf : 01-02-2024 alle 18:11. |
||
01-02-2024, 20:09 | #21155 | |
Member
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 229
|
Quote:
Se l'ssd è di quelli più "noti", il produttore ha poi un tool apposta per la cancellazione, che ne ripristina anche la velocità iniziale. Ma una formattata normale in caso di reinstallazione - visto il TRIM - è veloce e comunque efficace. Il TRIM è ovunque supportato da os "moderni" e passa, ad esempio, anche via usb (oltre sata ed nvme/u2).
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI |
|
01-02-2024, 22:32 | #21156 | ||
Senior Member
Iscritto dal: Jun 2005
Messaggi: 21960
|
No, non ho memoria che fosse lui.
Yrbaf, mi sono perso nel passaggio da: Quote:
Quote:
Allora per questa verifica basterebbe anche solo una scansione antivirus? Ricordo che Eset scanner ancora anni fa individuava i files 'illeggibili'. Quanto alla verifica dell'hash per un controllo di integrità che descrivi di par di capire che sarebbe impraticabile fare un confronto tra calcolo dell'hash di centinaia di migliaia di files, rispetto ad un indice hash dei medesimi effettuati in precedenza. Non è certo come indidividuare duplicati o comparazione side-by-side tra SSD/HD con Beyond Compare e simili...
__________________
Stampanti multifunzione [Thread ufficiale - consigli per gli acquisti] Ultima modifica di giovanni69 : 01-02-2024 alle 22:46. |
||
01-02-2024, 23:32 | #21157 | |||
Senior Member
Iscritto dal: Dec 2015
Messaggi: 6149
|
Quote:
Scopo trovare duplicati (anche in dischi separati) nonché avere un elenco unico in cui cercare files (roba tipo "mi chissà dove cavolo sta il file che contiene la parola "Esteso" nel suo nome", ricerca che puoi fare in pochi secondi anche su milioni di record se ha un lista unica e magari in un DB). Per fare tutti gli Hash è stato necessario leggere interamente tutti i files. Ed arrivato su alcuni file in una certa cartella su una certa partizione su un certo disco ha dato read error (mi pare) facendomi notare una situazione che non doveva sussistere in mondo senza problemi. Quote:
Ma lo scopo iniziale (per me) non era cercare file illeggibili ma solo firmare tutto quello che esiste nei miei file system. Quote:
Certo se lo fai a mano tra due liste testuali ti do ragione, ma fatto via DB sarebbe una banale query in cui gli chiedi di trovare quali file a parità di path e nome (e magari dimensione) hanno due hash diversi tra due fotografie diverse dello stato dischi. Ti trova in poco tempo (dipende da quanti record hai e da come è fatto il DB) quali file hanno cambiato firma tra una foto ed un'altra. Cioè se hai una foto (elenco con tutti gli Hash) a Giugno 2023 e la confronti con la foto fatta a Gennaio 2024, tutti i file in comune tra le foto, che non sono stati volutamente modificati DEVONO avere lo stesso hash. Dove non è così o qualcosa ha modificato a tua insaputa il file, o il file si è corrotto sul filesystem / supporto di memorizzazione. Poi ho detto (nella parte che tu hai evidenziato) che l'hash ti dice solo che il file è cambiato ma non ti dice dove è cambiato. Per scoprire quello devi per forza avere una copia vecchia del file e confrontarla con la copia che è risultata cambiata. Se non hai entrambe le copie ma solo l'ultima versione non c'è modo di sapere dove sia cambiato e neanche quanta parte sia cambiata (1 blocco da 4k, 1MB di roba, il 90% del file è ora diverso, c'è tutto il file vecchio più aggiunte in coda, ...ecc) Ultima modifica di Yrbaf : 01-02-2024 alle 23:45. |
|||
02-02-2024, 06:49 | #21158 | |
Senior Member
Iscritto dal: Jun 2009
Messaggi: 4903
|
Quote:
ad esempio una scrittura random con DiskGenius può bastare quindi? |
|
02-02-2024, 12:49 | #21159 | |
Member
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 229
|
Quote:
Se è questa la descrizione che fà per quanto concerne la cancellazione dei dati: https://www.diskgenius.com/how-to/ho...hard-drive.php sembra uno scritto molto vecchio (vecchio nella sostanza) incentrato sugli HDD che non sugli SSD. Spero riscriva con dati casuali un ssd, perchè parlare di settori per un ssd è parlare di qualcosa di fittizio. Un ssd simula di avere settori a livello logico ma è un array di blocchi fisici indifferenziati. Inoltre, per lo stesso motivo, non si applica ciò che è scritto per la cancellazione di singole cartelle o file se si tratta di un ssd. Cerco di fare un esempio a livello teorico. se in un HDD hai memorizzato dei file così: A-B-C-0-0-D e quindi chiedi al software di cancellare 1 file, mettiamo B, lui cerca B (in realtà i frammenti che compongono B, i riferimenti in mappatura logico/fisica) e li elimina, credo, sovrascrivendo con dati fittizi (se no è fuffa). Ottieni quindi A-E-C-0-0-D con E che è il dato fittizio. se hai questo e altri software (creati per HDD) e lo utilizzi su un SSD, quindi stessa sequenza e volendo cancellare B, avrai: A-0-C-0-0-D --> A-0-C-E-0-D cioè con l'intenzione di scrivere sul blocco logico dove stava B, il software non fà altro che dire al controller che in B non c'è più un file valido, e poi la scrittura del nuovo file avviene in una posizione fisica diversa (che ha preso il posto della posizione logica precedente). Ottieni una sequenza per gli algoritmi di TRIM e livellamento in cui: la sovrascrittura E viene messa in un blocco nuovo. Gli effetti di una sovrascrittura di un singolo file su ssd hanno provocato solo cancellazioni e riscritture laddove bastava semplicemente effettuare una cancellazione del file "normale", cancellazione che prevede l'azzeramento di buona parte delle celle di un blocco e l'impossibilità di recupero per software DR. Spero di essermi un po spiegato.. Quindi la risposta, se il software fà quello che dice e non è fuffa: SI, basta, anzi. Il metodo ad 1 passaggio zero fill che penso corrisponda all'opzione 00 o FF, crea uno spostamento generale dei blocchi a livello logico.
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI Ultima modifica di @Liupen : 02-02-2024 alle 12:53. |
|
02-02-2024, 13:30 | #21160 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 5621
|
i prezzi dei dischi nvme continuano ad aumentare, ormai sono fuori controllo
Mi sa che posticiperò l'acquisto del disco perchè spendere il 20-40% in più della scorsa estate non lo accetto |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 10:00.