Existe-t-il un système de contrôle de version distribuée (git, bazaar, mercurial, darcs, etc.) pouvant gérer des fichiers plus volumineux que la RAM disponible? Je dois être capable de commettre de gros fichiers binaires (jeux de données, vidéos/images sources, archives), mais je n'ai pas besoin de pouvoir les différencier, juste pouvoir valider et ensuite mettre à jour quand le fichier changements.Existe-t-il un VCS distribué pouvant gérer des fichiers volumineux?
Je l'ai regardé pour la dernière fois il y a environ un an, et aucun des candidats évidents ne le permettait, car ils sont tous conçus pour différer la mémoire de la vitesse. Cela m'a laissé avec un VCS pour gérer le code et quelque chose d'autre (logiciel de «gestion des actifs» ou simplement rsync et scripts) pour les gros fichiers, ce qui est assez moche quand les structures de répertoires des deux se chevauchent.
Merci pour votre réponse. Mais oui, je voulais dire ce que j'ai demandé. J'ai besoin de version fichiers volumineux - il existe une autre classe de logiciels "gestion des actifs de l'entreprise" qui est essentiellement VCS/Aperture/Version Cue sur un serveur pour les actifs médias. – joelhardi
Je pense que le point que j'essayais de faire (pas assez de café, je le crains) était que la majorité des systèmes VCS ne sont pas conçus pour la version des objets binaires. Comme vous le dites, ils font des diffs en mémoire et stockent le delta ... Les binaires de version n'ont pas grand intérêt car ils sont intrinsèques. – pobk