J'ai fait un refactoring sur une application mvc asp.net déjà déployée sur un site web live. Le refactoring consistait notamment à déplacer des fonctionnalités vers un nouveau contrôleur, provoquant le changement de certaines URL. Peu après, les différents robots des moteurs de recherche commencent à marteler les anciennes urls.Comment dois-je gérer les pages qui se déplacent vers une nouvelle URL en ce qui concerne les moteurs de recherche?
Quelle est la bonne façon de gérer cela en général?
- L'ignorer? Avec le temps, les SE devraient découvrir qu'ils n'ont rien d'autre que 400 des anciennes urls.
- Bloquer les anciennes URLs avec robots.txt?
- Continuer à attraper les anciennes URL, puis rediriger vers les nouvelles? Les utilisateurs qui naviguent sur le site n'auront jamais la redirection car les URL sont mises à jour tout au long de la nouvelle version du site. Je le vois comme du code poubelle - à moins qu'il puisse être géré par un routage sophistiqué?
- Autre?
Comme toujours, tous les commentaires sont les bienvenus ...
Merci, Anders, Danemark
Les pépites étaient au fond de l'article - mais elles étaient là! Merci pour la réponse et la référence. –
Vous êtes les bienvenus –