2017-01-07 1 views
0

Bonjour à tous, je construis un petit robot d'indexation qui récupère des nouvelles de certains sites Web. J'utilise Typhoeus.Définir l'en-tête approprié pour crawler pour empêcher le html mis en cache

Mon code est comme ceci:

request = Typhoeus::Request.new(url, timeout: 60) 
request.on_complete do |response| 
    doc = Nokogiri::HTML(response.body) 
    root_url = source.website.url 
    links = doc.css(css_selectors).take(20) 
end 
hydra.queue(request) 
hydra.run 

Le problème est des sites Web demandes renvoient une version chached anciens de la page. J'ai essayé de régler les en-têtes et j'ai inclus "Cache-Control" => "no-cache" mais cela n'a pas aidé! Toute aide sera appréciée.

Les mêmes choses se produisent lors de l'utilisation de l'open-uri.

l'un des en-tête de Reponse du site:

{"Server"=>"nginx/1.10.2", "Date"=>"Sat, 07 Jan 2017 12:43:54 GMT", "Content-Type"=>"text/html; charset=utf-8", "Transfer-Encoding"=>"chunked", "Connection"=>"keep-alive", "X-Drupal-Cache"=>"MISS", "X-Content-Type-Options"=>"nosniff", "Etag"=>"\"1483786108-1\"", "Content-Language"=>"ar", "Link"=>"</taxonomy/term/1>; rel=\"shortlink\",</Actualit%C3%A9s>; rel=\"canonical\"", "X-Generator"=>"Drupal 7 (http://drupal.org)", "Cache-Control"=>"public, max-age=0", "Expires"=>"Sun, 19 Nov 1978 05:00:00 GMT", "Vary"=>"Cookie,Accept-Encoding", "Last-Modified"=>"Sat, 07 Jan 2017 10:48:28 GMT", "X-Cacheable"=>"YES", "X-Served-From-Cache"=>"Yes"} 

Répondre

0

Cela devrait fonctionner:

"Cache-Control" => 'no-cache, no-store, must-revalidate' 
"Pragma" => 'no-cache' 
"Expires" => '0' 
+0

qui ne fonctionne pas – mma7