Je suis encore relativement nouveau sur Python, donc si c'est une question évidente, je m'en excuse.Détection des erreurs de timeout dans urllib2 urlopen de Python
Ma question concerne la bibliothèque urllib2, et sa fonction urlopen. Actuellement je l'utilise pour charger une grande quantité de pages d'un autre serveur (ils sont tous sur le même hôte distant) mais le script est tué de temps en temps par une erreur de timeout (je suppose que cela provient des grandes requêtes).
Existe-t-il un moyen de conserver le script après un délai d'attente? J'aimerais pouvoir aller chercher toutes les pages, donc je veux un script qui continuera à essayer jusqu'à ce qu'il ait une page, puis il ira de l'avant. Sur une note de côté, est-ce que garder la connexion ouverte à l'aide du serveur?
Donc, si je comprends bien, cela rendra « essayer » jusqu'à ce qu'il ne retourne pas une erreur? – Parker
@Parker: Lorsque Python atteint le code dans le bloc 'try', si un' urllib2.HTTPError' ou 'urllib2.URLError' se produit, Python ira dans le bloc' except'. Si aucune exception ne se produit, alors Python ira dans le bloc 'else'. – unutbu