J'ai récemment été impliqué dans le réaménagement d'un site web (un moteur de recherche pour les professionnels de la santé: http://www.tripdatabase.com), et l'un des objectifs était de rendre le moteur de recherche plus "amical", pas de magie noire , mais grâce à une meilleure conformité xhtml, des URLs plus riches en mots clés et un sitemap complet (documents> 500k).Utilisation de sitemaps
Malheureusement, peu de temps après le lancement de la nouvelle version du site en octobre 2009, les visites sur site (principalement via les recherches organiques de Google) ont chuté de 30%, ce qui n'était pas l'intention :)
Nous avons fait appel à un certain nombre d'experts SEO, mais aucun n'a été en mesure d'expliquer de manière satisfaisante la baisse immédiate du trafic, et nous avons entendu des avis contradictoires sur divers aspects, que j'espère que quelqu'un peut nous aider. avec.
Ma question est donc:
- do pages présentes dans sitemaps également doivent être spiderable d'autres pages? Nous avions pensé que le point d'un sitemap était spécifiquement pour aider les araignées à obtenir le contenu pas déjà déjà "visible". Mais maintenant nous obtenons le conseil pour s'assurer que chaque page est également liée à partir d'une autre page. Ce qui pose la question ... pourquoi s'embêter avec des sitemaps?
- quelques mois, et seulement 1% du sitemap (bien formaté, selon les outils des webmasters) semble avoir été spidered - est-ce habituel?
Merci à l'avance,
Phil Murphy