Bonjour à tous, je construis un petit robot d'indexation qui récupère des nouvelles de certains sites Web. J'utilise Typhoeus.Définir l'en-tête approprié pour crawler pour empêcher le html mis en cache
Mon code est comme ceci:
request = Typhoeus::Request.new(url, timeout: 60)
request.on_complete do |response|
doc = Nokogiri::HTML(response.body)
root_url = source.website.url
links = doc.css(css_selectors).take(20)
end
hydra.queue(request)
hydra.run
Le problème est des sites Web demandes renvoient une version chached anciens de la page. J'ai essayé de régler les en-têtes et j'ai inclus "Cache-Control" => "no-cache" mais cela n'a pas aidé! Toute aide sera appréciée.
Les mêmes choses se produisent lors de l'utilisation de l'open-uri.
l'un des en-tête de Reponse du site:
{"Server"=>"nginx/1.10.2", "Date"=>"Sat, 07 Jan 2017 12:43:54 GMT", "Content-Type"=>"text/html; charset=utf-8", "Transfer-Encoding"=>"chunked", "Connection"=>"keep-alive", "X-Drupal-Cache"=>"MISS", "X-Content-Type-Options"=>"nosniff", "Etag"=>"\"1483786108-1\"", "Content-Language"=>"ar", "Link"=>"</taxonomy/term/1>; rel=\"shortlink\",</Actualit%C3%A9s>; rel=\"canonical\"", "X-Generator"=>"Drupal 7 (http://drupal.org)", "Cache-Control"=>"public, max-age=0", "Expires"=>"Sun, 19 Nov 1978 05:00:00 GMT", "Vary"=>"Cookie,Accept-Encoding", "Last-Modified"=>"Sat, 07 Jan 2017 10:48:28 GMT", "X-Cacheable"=>"YES", "X-Served-From-Cache"=>"Yes"}
qui ne fonctionne pas – mma7