2010-11-17 4 views

Répondre

3

Vous pouvez utiliser robots.txt:

User-agent: * 
Disallow:/

Mais ce n'est pas fiable à 100%, tous les robots d'exploration respecter. D'après ce que j'ai appris récemment, le seul moyen fiable à 100% est de sécuriser toutes vos pages.

+0

remercie l'homme pour la réponse. –

+0

votre accueil, heureux d'aider. – RPM1984

+0

la même chose pour Windows Server? –

1

Eh bien, une façon courante d'arrêter les moteurs de recherche comme Google etc est d'inclure un fichier ROBOTS.TXT dans la racine de votre site Web.

Voici un bon article sur le sujet http://www.javascriptkit.com/howto/robots.shtml

+0

remercie l'homme pour la réponse. –

2

robots.txt (comme cela a déjà suggéré) empêche l'exploration. Si vous voulez juste pour empêcher la mise en cache, ajoutez le code HTML suivant à votre tête <section>:

<META NAME="ROBOTS" CONTENT="NOARCHIVE" /> 
Questions connexes