J'ai un site avec environ 150K pages dans son sitemap. J'utilise le générateur d'index sitemap pour créer les sitemaps, mais en réalité, j'ai besoin d'un moyen de le mettre en cache, car construire 150 sitemaps de 1000 liens chacun est brutal sur mon serveur. [1]Comment servir efficacement des sitemaps massifs dans django
JE POURRAIT mettre en mémoire cache chacune de ces pages sitemap avec memcached, ce que j'utilise ailleurs sur le site ... cependant, il y a tellement de sitemaps qu'il remplira complètement memcached .... de sorte que doesn ' t travail. Ce dont je pense avoir besoin, c'est d'un moyen d'utiliser la base de données comme cache pour ceux-ci, et de ne les générer que lorsqu'ils sont modifiés (ce qui signifie que l'index du sitemap ne change que le dernier plan du sitemap). pages, puisque le reste est toujours le même.) [2] Mais, aussi près que je peux le dire, je ne peux utiliser qu'un backend cache avec django.
Comment puis-je préparer ces sitemaps lorsque Google est lancé sans tuer ma base de données ou memcached?
Des pensées? [1] Je l'ai limité à 1 000 liens par page de sitemap car générer le maximum de 50 000 liens ne fonctionnait pas.
[2] par exemple, si j'ai sitemap.xml? Page = 1, page = 2 ... sitemap.xml? Page = 50, je n'ai vraiment besoin de changer sitemap.xml? Page = 50 jusqu'à ce qu'il est plein de 1000 liens, alors je peux à peu près ce pour toujours, et se concentrer à la page 51 jusqu'à ce qu'il soit plein, cache à jamais, etc.
EDIT, 2012-05-12: Cela a continué d'être un problème , et j'ai finalement abandonné le framework sitemap de Django après l'avoir utilisé avec un cache de fichiers pendant environ un an. Au lieu de cela, j'utilise maintenant Solr pour générer les liens dont j'ai besoin dans une vue très simple, et je les passe ensuite au modèle Django. Cette considérablement simplifié mes sitemaps, les a fait fonctionner très bien, et je suis à environ 2,250,000 liens dès maintenant. Si vous voulez faire cela, il suffit de consulter le modèle de sitemap - tout est vraiment évident à partir de là. Vous pouvez voir le code pour cela ici:
Non, ils sont pour les robots. S'il vous plaît, ignorez-les. Détails: sitemaps.org – mlissner