J'ai un ensemble de 50 urls ... et à partir de chaque URL, je récupère des données en utilisant urllib2. La procédure que je suis (y compris celles des cookies pour chaque réglage URL) est la suivante:Remplacement pour urllib2
urls = ['https://someurl', 'https://someurl', ...]
vals = []
for url in urls:
req2 = urllib2.Request(url)
req2.add_header('cookie', cookie)
response = urllib2.urlopen(req2)
data = response.read()
vals.append(json.loads(data))
Donc, au fond, je suis en train de récupérer les données de tous ces urls et le dumping dans la liste des vals. Cette procédure complète pour 50 urls prend environ 15,5 à 20 secondes. J'ai besoin de savoir s'il existe une autre librairie python à travers laquelle je peux faire la même opération mais de manière plus rapide ... ou si vous pouvez suggérer une autre façon plus rapide d'aborder ce problème en utilisant urllib2, alors ça ira ainsi que. Merci.
Vous devriez essayer d'utiliser 'requests'. Cela facilite la gestion de beaucoup de ces choses. (Notez qu'il ne résoudra pas les problèmes * de performance * de cette façon, juste pour un code bien meilleur.) –
Chris, pouvez-vous élaborer avec un seul exemple? – user2480542