2010-11-15 7 views
1

Je suppose que tout le monde aimerait le contraire, mais j'ai besoin de cacher la structure "répertoire" d'un site Web ASP.NET.ASP.NET. Masquage de la structure du site entier. C'est possible?

Pour cette raison, je pense à

  1. Utilisez le robots.txt comme suit ...

    User-agent: * Disallow:/

  2. Utilisez Url rewriting, pour créer des chemins fantômes

  3. Désactiver la navigation dans les répertoires. (Liste de répertoire refusée ...)

  4. Utilisez .ashx pour afficher des images.

  5. D'autres façons que vous pourriez suggérer.

En d'autres termes je ne voudrais pas quelqu'un avec un "downloader-structrure reader", dépouiller mon site.

Comme vous le voyez la balise sekurity manque :)

post-scriptum Je ne me soucie pas de SEO

+0

Pour clarifier: vous essayez d'empêcher les robots d'explorer votre site, tout en permettant à de vrais visiteurs de naviguer? –

+0

@ajreal: La dernière fois que j'ai utilisé ASP était liée à IIS! – OrElse

+0

@Richard: Je voudrais empêcher les robots d'explorer mais permettre aux vrais visiteurs de naviguer sur mon site, uniquement à travers les liens. Les utilisateurs ne doivent pas savoir par exemple que j'ai un répertoire "/ images". – OrElse

Répondre

1

Un téléchargeur de site comme wget -r fonctionnera quand même. Il suit les liens et ne se soucie pas des répertoires (sauf le fait que vous pouvez limiter la profondeur). Si vous souhaitez exclure les robots d'exploration légitimes tels que Google, utilisez le fichier robots.txt. Wget et voyous ne s'en soucient pas. La seule bonne solution consiste à demander un login (mais cela ne vous protège pas contre les utilisateurs de wget qui téléchargent tout votre site, ils vont simplement fournir les informations de connexion/session id) ou encombrer votre contenu avec des CAPTCHA gênants (pisse des utilisateurs légitimes) ou faire en sorte que l'ensemble du site utilise JavaScript/AJAX pour afficher/charger du contenu. Cela rend l'expérience utilisateur encore meilleure (si elle est faite correctement) et verrouille efficacement la plupart/tous les robots d'exploration.

+0

Merci! D'ailleurs, vous avez un super nom d'utilisateur! – OrElse

+0

Haha, j'ai ce nom d'utilisateur depuis une décennie maintenant .. le premier endroit où j'avais besoin d'un surnom était un forum sur le jeu Thief2 - et depuis que je n'ai jamais changé. ;) – ThiefMaster

2

Si vous voulez que les utilisateurs puissent naviguer sur votre site, vous aurez évidemment besoin de liens vers d'autres pages. Pour (tenter de) rendre ces liens difficiles pour un robot d'exploration, vous pouvez essayer de rendre tous vos liens dynamiquement en javascript. Cela signifie qu'un robot qui ne fait pas de rendu DOM complet comme un navigateur ne sera pas capable d'extraire les liens. Cependant, bien sûr, quelqu'un pourrait jeter un oeil à votre site et de construire quelque chose qui analyse les liens s'ils étaient si enclins.

Avec égards à cacher la structure des répertoires des utilisateurs et/ou des bots, alors oui, vous devrez mettre en œuvre une sorte de réécriture d'url:

Outbound: /assets/images/image.jpg -> /somecode.jpg 
Inbound: /somecode.jpg -> /assets/images/image.jpg 

Sinon, ils seront en mesure d'inspecter les liens (si statique ou rendu dynamiquement) dans leur navigateur et déterminer la structure du répertoire.

Questions connexes