J'ai besoin de gratter (en utilisant scrAPI) 400+ pages web rubis, mon code actuel est séquentiel:Comment télécharger rapidement beaucoup de pages web en ruby? Téléchargement en parallèle?
data = urls.map {|url| scraper.scrape url }
En fait, le code est un peu différent (gestion des exceptions et d'autres choses).
Comment puis-je le rendre plus rapide? Comment puis-je paralléliser les téléchargements?
Avez-vous besoin de vous soucier de toucher le serveur avec trop de demandes à la fois? –