Recherche du meilleur algorithme pour prendre un fichier, le diviser en N parties, ajouter M parties de redondance, puis stocker le fichier dans N + M différents emplacements. Les fichiers sont généralement volumineux. Par exemple: un fichier de 1 Go peut être divisé en (32) parties de 32 Mo, avoir (8) parties additionnelles de 32 Mo et la structure redondante de 1,25 Go stockée sur 40 zones différentes. L'objectif serait de recréer le fichier à partir de toutes les parties valides (32). Un hachage indépendant des pièces originales (32) serait disponible pour vérifier la reconstruction correcte. Si cela est faisable, je crois que cela donnerait l'équivalent fonctionnel d'avoir 8 copies miroirs pour un surdébit de seulement 25% (plus le temps de calcul), n'est-ce pas? J'ai trouvé l'algorithme de Rabin de 1989 qui semble faire cela. Je me demandais si quelqu'un était au courant de quelque chose de mieux/plus vite?Comment diviser un fichier en N parties avec M parties redondantes de façon à ce que N des parties N + M soit suffisante pour le reconstituer?
Je reconnais que cela ressemble au fonctionnement du Raid 5 et du Raid 6 - en cherchant à adopter cette approche, en l'étendant à 8 blocs de parité et en l'exécutant au niveau du fichier.
On dirait que vous parlez de [partage secret] (https://en.wikipedia.org/wiki/Secret_sharing), je pense que vous vouliez dire l'algorithme de Rabin? Y at-il quelque chose qui vous amène à croire que quelqu'un a amélioré cela? – jthill
Avez-vous référé à cet article? http://web.engr.oregonstate.edu/~yavuza/Courses/Fall2014_AdvNetSec/ResearchPapers/RegularPapers/IDA.pdf –
http://stackoverflow.com/questions/252555/how-does-cauchy-reed-solomon-algorithm Le travail semble pertinent. – rici