Un ulteriore svantaggio di una segmentazione simile è la gestione della password per decriptare le chiavette, se ne potrebbe usare una unica per tutte, ma con una riduzione della sicurezza.
Io non pensavo a dividere il seed in 4 parti, pensavo a farne 4 copie in modo da avere certezza che almeno 1 sia sempre disponibile e corretta. In questo caso quindi la pwd può essere una.
@duesoldi, potresti spiegare meglio il punto 5? Grazie.
Certo. Spesso vedo amici (non parlo di aziende che usano sistemi molto più complessi e completi) che fanno copie delle foto o dei loro documenti su 2 o 3 hard disk e così si sentono al sicuro dall'eventuale perdita di dati, anche parziale.
E' un sistema profondamente sbagliato perché l'azione tipica che queste persone fatto è: tengo la copia di riferimento su un HD, e poi da quella faccio le due copie aggiuntive. Non pensano però che se nell'HD principale un file si corrompe ad esempio perché si smagnetizza (o si rovina) un settore del disco, loro sì fanno la copia in due posti aggiuntivi, ma fanno la copia di un file corrotto e quindi da questo punto di vista non serve a nulla averne la copia.
Ti è mai capitato di aprire una foto e di vederla "tagliata" in due orizzontalmente con la seconda parte illeggibile ? ecco, è il tipico file corrotto.
Il problema principale di queste situazioni è che
non ti accorgi del settore difettoso e quindi non ti accorgi di avere file corrotti, e continui a fare copie su copie di file corrotti
Hai un senso di sicurezza (ho i backup!) che è assolutamente sbagliato!
Sono problemi noti come "slow degradation file" perché dipendono da errori che subentrano a seguito del lento decadimento delle caratteristiche fisiche degli HD. Parlo di quelli meccanici, ma anche gli SSD hanno problemi simili.
Comunque proprio perché sono problemi noti, tanti anni fa sono stati sviluppati file system che cercano di metterci una pezza e Zfs è uno di questi.
Zfs ha un funzionamento decisamente complesso ma per fartela breve sul punto che ci interessa:
1) scrive i dati nel pool che è lo "spazio di lavoro" composto da 1 o più dischi
2) contemporaneamente calcola l'hash di ogni file che salva, lo conserva in RAM e lo scrive su disco
3) può (se lo configuri affinché lo faccia) fare n copie del dato nello stesso pool (o anche fuori)
ha poi moltissime caratteristiche aggiuntive decisamente belle ma che non elenco perché non servono a risponderti.
Tornando a noi: quando un file si corrompe Zfs se ne accorge perché vede che l'hash che ha in memoria non corrisponde a quello ricalcolato dalla lettura del file. In questi casi ricostruisce il file completo usando i bit di parità che inserisce nello scrivere i file oppure - se lo hai configurato così - andando a recuperare dal pool una delle n copie di quel file.
In questo modo elimina "completamente" il problema del danneggiamento dei settori (il virgolettato è d'obbligo perché se poi prendi il disco e lo sbatti contro un muro.....
).
Guarda ad es. qui le prime righe del paragrafo "Data integrty":
https://en.wikipedia.org/wiki/ZFSnaturalmente Zfs richiede sistemi corposi, sia in termini di dischi sia di Ram/Cpu, ma se devi salvare un seed le risorse necessarie sono irrisorie.
Il problema semmai è che devi sbatterti un attimino per imparare ad usarlo, per dire su Windows Zfs non c'è (ovviamente!
) o almeno non ufficialmente.