2009-06-16 6 views
1

Quels sont les compromis entre les différents algorithmes de compression?compromis de différents algorithmes de compression

Le but est la sauvegarde, le transfert & de restauration. Je me fous de la popularité, tant qu'il existe un outil assez mature pour unix. Je me soucie de

  • temps
  • cpu
  • mémoire
  • niveau de compression

les algorithmes que je envisage sont

  • zip
  • bzip
  • gzip
  • tar
  • autres?
+1

tar n'est pas un algorithme de compression – swampsjohn

Répondre

2

Le goudron est pas un algorithme de compression en soi.

Vous pouvez utiliser zip/gzip lorsque le temps pour la compression/décompression est la question la plus importante.

Vous pouvez utiliser bzip lorsque vous avez besoin d'un meilleur taux de compression.

Vous pouvez utiliser LZMA lorsque vous avez besoin d'un taux de compression encore plus élevé, mais que le temps processeur est plus important.

Have a look here.

+1

Ce site de comparaison est dépassé, car il y a beaucoup de changements dans lzma et 7zip depuis 2005. – bill

0

Il serait très simple de créer un banc d'essai simple pour ces cas.

écrire un script qui utilise chacun à son tour sur un ensemble de fichiers qui est représentatif de ceux que vous souhaitez comporess, et mesurer le rapport entre le temps/cpu/usage/compression mémoire acheived.

Relancez les un nombre statistiquement significatif de fois, et vous aurez votre réponse.

1

Il dépend généralement de vos données d'entrée, mais je ne l'ai jamais trouvé quelque chose qui me donne une meilleure compression générale que 7zip (http://www.7-zip.org).

Questions connexes