2010-06-16 6 views

Répondre

2

Regardez les user-agents. Cela peut sembler logique à la liste noire, c'est-à-dire filtrer toutes les chaînes contenant "Googlebot" ou d'autres moteurs de recherche connus, mais il y en a tellement, il pourrait être plus facile de faire une liste blanche: .

Une autre approche consisterait à utiliser du code JavaScript pour effectuer la journalisation proprement dite (comme le fait Google Analytics). Les bots ne chargeront pas le JS et ne compteront donc pas dans vos statistiques. Vous pouvez également effectuer une journalisation beaucoup plus détaillée de cette façon, car vous pouvez voir exactement (jusqu'au pixel - si vous le souhaitez) quels liens ont été cliqués.

0

Vous pouvez consulter l'agent utilisateur: here il y a une liste intéressante. Ou vous pouvez recouper avec les hits sur robots.txt, car toutes les araignées devraient lire cela en premier et les utilisateurs ne le font généralement pas.