0
Je me suis inscrit à une API. Sa documentation dit: "Il est recommandé que vous listez des robots de vos sites Web pour réduire les coûts d'utilisation."Bots de la liste noire des sites Web
Qu'est-ce que cela signifie et comment le faire?
Les robots généralement conformes suivent le fichier robots.txt mais il ne serait pas dangereux d'implémenter des méta-tags. Certains disent overkill, je dis si vous utilisez des modèles, pourquoi pas. Lecture supplémentaire, pas pour remplacer la réponse, http://en.wikipedia.org/wiki/Robots_exclusion_standard. –