Je souhaite pouvoir télécharger une page et toutes les ressources associées (images, feuilles de style, fichiers de script, etc.) en utilisant Python. Je suis (un peu) familier avec urllib2 et je sais comment télécharger des URL individuelles, mais avant de commencer à pirater à BeautifulSoup + urllib2 je voulais être sûr qu'il n'y avait pas déjà un équivalent Python pour "wget --page-requisites http://www.google.com ". Plus précisément, je suis intéressé à recueillir des informations statistiques sur le temps qu'il faut pour télécharger une page Web entière, y compris toutes les ressources.Télécharger une page Web et tous ses fichiers de ressources en Python
Merci Mark
duplication possible de http://stackoverflow.com/questions/419235/anyone-know-of-a-good-python-based-web-crawler-that-i-could-use –