J'ai pour tâche de compresser des données boursières ... les données se trouvent dans un fichier où la valeur du stock pour chaque jour est donnée sur une ligne et ainsi de suite ... donc c'est un très gros fichier.Compression de données
Par exemple,
123,45
234,75
345,678
889,56
.....
maintenant la question est de savoir comment compresser les données (alias réduire la redondance) en utilisant des algorithmes standards comme Huffman ou codage arithmétique ou codage LZ ... quel codage est le plus préférable pour ce genre de données? ...
J'ai remarqué que si je prends les premières données puis Considérer la différence entre chaque donnée consécutive, il y a beaucoup de répétition dans les valeurs de différence ... cela me fait me demander si d'abord prendre ces différences, trouver leur fréquence et donc la probalité, puis utiliser le codage huffman serait un moyen?
Ai-je raison? ... quelqu'un peut-il me donner quelques suggestions.
Pourquoi ne faites-vous pas de comparaison? – jldupont
http://mathoverflow.com/ – jldupont