J'ai un site énorme, avec plus de 5 millions d'url.stratégie de génération de sitemap
Nous avons déjà pagerank 7/10. Le problème est qu'en raison de 5 millions d'url et parce que nous ajoutons/supprimons de nouvelles urls quotidiennement (nous ajoutons ± 900 et nous en retirons ± 300), google n'est pas assez rapide pour indexer chacun d'entre eux. Nous avons un module perl énorme et intense pour générer ce sitemap qui est normalement composé de 6 fichiers sitemap. Pour sûr, google n'est pas assez rapide pour ajouter toutes les urls, surtout parce que normalement, nous recréons tous ces sitemaps tous les jours et soumettre à google. Ma question est la suivante: quelle devrait être une meilleure approche? Devrais-je vraiment m'envoyer 5 millions d'urls à google tous les jours même si je sais que google ne sera pas en mesure de traiter? Ou devrais-je envoyer juste des permaliens qui ne changeront pas et le robot d'exploration de Google trouvera le reste, mais au moins j'aurai un index concis chez google (aujourd'hui j'ai moins de 200 de 5.000.000 d'indexés)
Eh bien, si vous supprimez tant d'urls par jour .. pourquoi google l'index? – Shoban