2008-12-08 5 views
2

J'ai un site communautaire qui compte environ 10 000 inscriptions en ce moment. J'adopte une nouvelle stratégie d'URL quelque chose commeGoogle Sitemap - Dois-je provisionner pour le contrôle de la charge/la mise en cache?

example.com/products/category/some-product-name 

Dans le cadre de la stratégie, je suis en train de mettre en œuvre un plan du site. Google a déjà un bon index de mon site, mais les URL vont changer. J'utilise un framework php qui accède à la base de données pour chaque liste de produits.

Je suis préoccupé par les effets de perfomance de fournir 10 000 nouvelles URL à google, devrais-je être?

Une solution possible que je regarde est de rendre mes pages php-outputted aux pages HTML statiques. J'ai déjà cette fonctionnalité ailleurs sur le site. De cette façon, google indexerait 10 000 pages html. La beauté de ce système est que si un utilisateur arrive via google à cette page HTML, dès qu'il commence à naviguer sur le site, il revient directement dans la version de PHP.

Mon problème avec cette méthode est que je dois ajouter .html sur mes belles URL propres ...

example.com/products/category/some-product-name.html 

Vais-je sur ce dans le mauvais sens?

Édition 1: Je veux réduire les frais généraux PHP et MySQL. La création des pages HTML est juste une méthode de mise en cache en préparation d'un pic de charge lorsque les moteurs de recherche explorent ces pages. Y a-t-il de meilleurs moyens?

Répondre

0

Pas une réponse à votre question principale.

Vous n'avez pas besoin d'ajouter .html. Vous pouvez laisser les URL telles qu'elles sont. Si vous ne trouvez pas un meilleur moyen de rediriger vers le fichier html (qui n'a pas de suffixe .html), vous pouvez le sortir via PHP avec readfile.

+0

Merci OIS. La principale raison de l'approche HTML était de ne pas avoir de surcharge de traitement php sur le serveur. Approche intéressante cependant, je le garderai à l'esprit. – ed209

1

À moins de manquer quelque chose, je pense que vous n'avez pas à vous en préoccuper. Je suppose que votre liste de noms de produits ne change pas tous que souvent - sur une échelle d'un jour ou deux, pas toutes les secondes. La carte du site Google doit être lu en une seconde ou moins, et le robot d'exploration ne va pas vous explorer instantanément après la mise à jour. Je l'essayerais sans aucune complication et mesurerais l'effet avant de te casser le cou en l'optimisant.

+0

Le format de l'URL du produit ne changera pas à nouveau. L'URL du produit peut changer si le nom du produit change. – ed209

0

Je suis préoccupé par les effets de perfomance de fournir 10 000 nouvelles URL à google, devrais-je être?

Les effets de performance sur les serveurs de Google? Je ne m'inquiéterais pas pour ça.

Les effets de performance sur vos propres serveurs? Je ne m'inquiéterais pas non plus à ce sujet. Je doute que vous obtiendrez beaucoup plus de trafic que vous le feriez auparavant, vous l'obtiendrez juste envoyé à différentes URLs.

+0

oui, la performance sur mon serveur (je suis sûr que google pourrait le gérer!). Je m'attends à un pic d'initail comme les nouvelles pages sont indexées - mais vous ne pensez pas que cela se produira? merci :) – ed209

+0

Votre site est déjà exploré par Google, et gère la charge très bien. Vous ne devriez pas recevoir plus de trafic de Googlebot que vous ne le faites déjà. –

1

Vous ne devriez pas vous inquiéter de 10000 nouveaux liens, mais vous pouvez analyser votre trafic google actuel, pour voir à quelle vitesse google les explorerait. La mise en cache est toujours une bonne idée (voir: Memcache, ou même générer des fichiers statiques?).

Par exemple, j'ai actuellement environ 5 demandes/seconde de Googlebot, ce qui signifierait Google ramperait ces 10.000 pages dans une bonne demi-heure, mais, considérez ceci:

  1. Rediriger tous les liens existants De nouveaux emplacements

    En faisant cela, vous assurez que les liens déjà indexés par google et d'autres moteurs de recherche sont presque immédiatement réécrits. Le classement google actuel est migré vers le nouveau lien (les liens supplémentaires commencent par le score 0).

  2. Google Analytics

    Nous avons remarqué que Google utilise les données d'analyse pour explorer des pages, qu'il ne généralement pas trouver avec crawling normal (javascript, réoriente connectés liens de contenu utilisateur). Les chances sont, google ramasser sur votre changement d'URL très rapidement, mais voir 1).

  3. Plan du site

    La règle de base pour les fichiers sitemap dans notre cas est seulement pour les tenir à jour avec le dernier contenu. Garder 10.000 liens, ou même tous vos liens là-dedans est assez inutile. Comment allez-vous mettre à jour ce fichier?


Il est un amour & relation de haine avec moi et Google Crawler jours theese, puisque les liens les plus utilisés par les utilisateurs sont assez bien mises en cache, mais le plus souvent crawls chose crawler Google ne sont pas. C'est la raison pour laquelle google provoque 6x la charge en 1/6ème des demandes.

+0

Comment allez-vous mettre à jour ce fichier? cron job et le framework PHP (Seagull PHP) que j'utilise possède des fonctionnalités sitemap. – ed209