J'ai des liens avec cette structure:robots.txt: bots Disallow pour accéder à une "profondeur url" donnée
- http://www.example.com/tags/bla
- http://www.example.com/tags/blubb
- http://www.example.com/tags/bla/blubb (pour tous les articles correspondant aux DEUX balises)
Je veux google & co pour spider tous les liens qui ont un tag dans l'URL, mais pas les URL qui ont deux ou plusieurs tags.
Actuellement, j'utilise le tag méta html "robots" -> "noindex, nofollow" pour résoudre le problème.
Existe-t-il une solution robots.txt (qui fonctionne au moins pour certains robots de recherche) ou dois-je continuer avec "noindex, nofollow" et vivre avec le trafic supplémentaire?
Interdire l'accès entraînerait une erreur HTTP. Je ne sais pas comment google réagit aux pages avec beaucoup de "erreur de serveur". Pas très enthousiaste à essayer :) – BlaM
N'aurait pas à - vous pourriez servir un peu de statique pas cher "rien à voir ici" page. – MarkusQ
C'est vrai. Serait au moins mieux que de servir la pleine page. – BlaM