2009-03-25 6 views
3

J'ai des liens avec cette structure:robots.txt: bots Disallow pour accéder à une "profondeur url" donnée

Je veux google & co pour spider tous les liens qui ont un tag dans l'URL, mais pas les URL qui ont deux ou plusieurs tags.

Actuellement, j'utilise le tag méta html "robots" -> "noindex, nofollow" pour résoudre le problème.

Existe-t-il une solution robots.txt (qui fonctionne au moins pour certains robots de recherche) ou dois-je continuer avec "noindex, nofollow" et vivre avec le trafic supplémentaire?

Répondre

1

Je ne pense pas que vous pouvez le faire en utilisant robots.txt. The standard est assez étroit (pas de caractères génériques, doit être au niveau supérieur, etc.). Qu'en est-il de les interdire en fonction de l'agent utilisateur sur votre serveur?

+0

Interdire l'accès entraînerait une erreur HTTP. Je ne sais pas comment google réagit aux pages avec beaucoup de "erreur de serveur". Pas très enthousiaste à essayer :) – BlaM

+0

N'aurait pas à - vous pourriez servir un peu de statique pas cher "rien à voir ici" page. – MarkusQ

+0

C'est vrai. Serait au moins mieux que de servir la pleine page. – BlaM

Questions connexes