2010-09-03 4 views
5

J'ai une page publique qui n'est pas censée être accessible aux utilisateurs. J'ai donc une URL à laquelle il n'y a pas de lien et vous devez entrer manuellement, puis vous connecter.Robots.txt, interdire l'URL multilingue

L'URL est multilingue, elle peut donc être "/ SV/Compte/Connexion" ou "/ FR/Compte"/Logon "etc etc Puis-je désactiver cette URL pour être indexé pour toutes les langues?

Répondre

2

Cette URL peut vous aider http://www.robotstxt.org/robotstxt.html. Il n'y aura pas d'exclusion générique dans votre cas, vous devrez ajouter tous les identifiants spécifiques à la langue urls robots.txt

Mise à jour

vous pouvez mettre Disallow: /folder/subfolder/ ou Disallow: /folder/ dans votre fichier robots.txt

+0

Merci de répondre. Je l'ai lu et je ne veux pas le faire. Par exemple, d'autres utilisateurs peuvent ajouter d'autres langues à l'aide de l'interface d'administration et ne savent pas comment modifier le fichier robots.txt. Peut-être je peux le modifier de mon code lors de l'ajout de plusieurs langues –

+0

@Oskar vous pouvez également envisager de déplacer ces pages dans un seul dossier et ajouter simplement ce dossier dans la liste des exceptions dans robots.txt –

+0

@ajay_whiz Ils sont tous dans le même dossier. Mais puis-je écrire des dossiers? Je pensais que les URLs où la seule chose affectant ce –