Je veux obtenir les données de prix historiques max avec scrapy de yahoo finance.
Voici l'URL des données de prix historique fb (facebook) max.Comment obtenir les données de prix historiques max de yahoo finance?
https://query1.finance.yahoo.com/v7/finance/download/FNMA?period1=221115600&period2=1508472000&interval=1d&events=history&crumb=1qRuQKELxmM
Afin d'écrire un crawler web prix des prix, deux problèmes que je ne peux pas résoudre.
1.Comment obtenir l'argument period1?
Vous pouvez l'obtenir à la main dans la page Web, il suffit de cliquer sur max.
Comment obtenir l'argument avec les codes python?
Le stock différent a la valeur period1 différente.
2.How pour créer la mie argument = 1qRuQKELxmM automatiquement, des actions différentes avec différentes valeurs de la mie?
Voici mes données historiques max stock avec cadre scrapy.
import scrapy
class TestSpider(scrapy.Spider):
name = "quotes"
allowed_domains = ["finance.yahoo.com"]
def __init__(self, *args, **kw):
self.timeout = 10
def start_requests(self):
stockName = get-it and ommit the codes
for stock in stockName:
period1 = how to fill it
crumb = how to fill it
per_stock_max_data = "https://query1.finance.yahoo.com/v7/finance\
download/"+stock+"?period1="+period1+"&period2=1508472000&\
interval=1d&events=history&"+"crumb="crumb
yield scrapy.Request(per_stock_max_data,callback=self.parse)
def parse(self, response):
content = response.body
target = response.url
#do something
Comment remplir le blanc ci-dessus dans mon framework de scrawler Web?
Avez-vous envisagé d'utiliser pandas géants – Dark
pandas géants Wiht, tel code est besoin de 'start = datetime.datetime (2010, 1, 1)', stock différent a différent date de début, le problème demeure –
[This] (http://blog.bradlucas.com/posts/2017-06-02 -new-yahoo-finance-quote-download-url /) lien peut vous être utile car il montre comment obtenir la valeur 'crumb' –