J'essaie d'écrire un script qui accepte une URL avec certains paramètres, lit une liste de nouvelles URL sur la page Web résultante et les télécharge localement. Je suis très novice en programmation et je n'ai jamais utilisé Python 3, donc je suis un peu perdu.Script qui utilise des paramètres et lit les résultats
Voici un exemple de code pour expliquer davantage:
param1 =
param2 =
param3 =
requestURL = "http://examplewebpage.com/live2/?target=param1&query=param2&other=param3"
html_content = urllib2.urlopen(requestURL).read()
#I don't know where to go from here
#Something that can find when a URL appears on the page and append it to a list
#Then download everything from that list
#this can download something from a link:
#file = urllib.URLopener()
#file.retrieve(url, newfilelocation)
La sortie de la requête-URL est une très longue page qui peut être en XML ou JSON et a beaucoup d'informations pas nécessairement besoin, de sorte que certains forme de recherche est nécessaire pour trouver les URL qui doivent être téléchargés à partir de plus tard. Les URL trouvées sur la page mènent directement aux fichiers nécessaires (ils se terminent par .jpg, .cat, etc).
S'il vous plaît laissez-moi savoir si vous avez besoin d'autres informations! Mes excuses si cela est déroutant. Idéalement, je voudrais que les fichiers téléchargés vont tous dans un nouveau dossier (sous-répertoire) créé pour eux avec le nom de fichier comme date et heure, mais je pense que je peux comprendre cette partie moi-même.
Essayez-vous d'analyser une page HTML pour tous les liens vers d'autres pages HTML et de télécharger ces autres pages? –
Désolé, cela aurait dû être expliqué, mais les liens se réfèrent directement aux fichiers à télécharger. (Ils se terminent par .jpg, .cat, etc). Modification de la question maintenant – moon17