2010-02-09 3 views
1

dois-je faire alorsrobots.txt ignrore tous les dossiers, mais analyser tous les fichiers dans la racine

User-agent: *

Disallow:/

est-il aussi simple que cela? ou est-ce que cela ne va pas non plus ramper les fichiers dans la racine?

essentiellement c'est ce que je suis après - rampants tous les fichiers/pages dans la racine, mais aucun des dossiers du tout ou je vais devoir spécifier chaque dossier explicitement .. à savoir

disallow :/admin

disallow:/cette

.. etc

grâce

nat

Répondre

2

Votre exemple va bloquer tous les fichiers en racine.

Il n'y a pas de moyen "standard" de faire facilement ce que vous voulez sans spécifier explicitement chaque dossier.

Certains crawlers do support extensions qui vous permettra de faire correspondre les modèles. Vous pouvez interdire tous les robots qui ne supportent pas la correspondance de motifs, mais autoriser ceux qui le font.

Par exemple

# disallow all robots 
User-agent: * 
Disallow:/

# let google read html and files 
User-agent: Googlebot 
Allow: /*.html 
Allow: /*.pdf 
Disallow:/
+0

merci ben, mal donner qu'un aller – nat

+0

-t-il pour vous? – BenM

+0

effectivement fini par le faire explicitement pour chaque dossier .. merci cependant - pas parce que cela n'a pas fonctionné cependant – nat

Questions connexes