Je sérialise les données pour chaque côté du serveur et sa taille est d'environ 128 Ko. Je sérialise un tableau [255,255] de booléens qui est un must pour la cartographie, quelles alternatives pourrais-je utiliser comme j'ai entendu gzip augmenterait réellement la taille?Sérialiser les données est trop grand
J'ai entendu parler de protobuf-net mais il n'est pas documenté et il n'existe aucun exemple sur internet.
Non, GZipStream n'augmentera pas cette taille. Vous combattez FUD en l'essayant. –
@Hans bien, il * peut * faire, en fonction de l'aspect aléatoire des données. En supposant une bonne implémentation qui * indique * que les données sont aléatoires, vous avez toujours le surcoût d'un en-tête de trame. Une mauvaise implémentation (qui n'indique pas que c'est aléatoire) pourrait faire à peu près n'importe quoi. –
Vous ajoutez juste plus de FUD, ça ne le fera toujours pas l'essayer. –