Dans le code ci-dessous, j'utilise mutli-threading ou multi-process pour l'extraction depuis url. Je pense que les pools seraient idéaux, Quelqu'un peut-il aider à suggérer la solution ..python multi-threading/code multi-processus
Idée: pool thread/processus, collecter des données ... ma préférence est le processus sur le fil, mais pas sûr.
import urllib
URL = "http://download.finance.yahoo.com/d/quotes.csv?s=%s&f=sl1t1v&e=.csv"
symbols = ('GGP', 'JPM', 'AIG', 'AMZN','GGP', 'JPM', 'AIG', 'AMZN')
#symbols = ('GGP')
def fetch_quote(symbols):
url = URL % '+'.join(symbols)
fp = urllib.urlopen(url)
try:
data = fp.read()
finally:
fp.close()
return data
def main():
data_fp = fetch_quote(symbols)
# print data_fp
if __name__ =='__main__':
main()
Y at-il même tout ce que vous voulez faire en parallèle? Votre code fait simplement une seule requête. –
Non, en ce moment, j'apprends Python en essayant de garder tout simple. merci – Merlin
J'ai vu la méthode de processus, quelqu'un peut-il me montrer la méthode de filetage. Merci, merci – Merlin