2010-12-18 2 views
2

De nombreuses erreurs ont été envoyées à mon adresse de courrier électronique en raison de la présence de robots d'exploration sur certaines parties de mon site sans aucune demande. Je me demandais quel est le meilleur moyen de gérer les robots d'exploration de Django? Dois-je émettre une redirection lorsque je rencontre un QueryDict vide?Comment gérer les robots d'indexation dans Django?

Répondre

1

Vous pouvez envisager d'implémenter un robots.txt pour empêcher les robots d'exploration d'accéder à des zones de votre site destinées uniquement aux humains, telles que les formulaires.

-1

Les robots bien élevés ne devraient faire que des requêtes GET. Les formulaires doivent être tout sauf des requêtes GET.

Ruby et Rails utilise la cartographie CRUD

Create -> POST, 
READ -> GET, 
Update -> PUT, 
Delete -> DELETE 

Seules les choses sans informations supplémentaires doivent être appelés demandes.

+0

"Les formulaires doivent être tout sauf les requêtes GET" -> Qu'en est-il de '

+0

Doit être découragé. regardez la page d'accueil de Twitter et voyez s'il y a des formulaires GET. – EnabrenTane

+0

Mon crawler utilise toujours DELETE .../s – titaniumdecoy

1

Je pense que vos vues devraient fonctionner avec n'importe quelle demande, à la page de retour de liste avec le message "Demande incorrecte". 500 est moche. Etes-vous sûr que l'utilisateur n'ouvre pas la page sans données de requête? La méthode "get" de QueryDict peut vous aider avec les valeurs par défaut.

Questions connexes