Je tente d'extraire un emplacement spécifique d'une page Web en utilisant XPath pour le trouver. Le chemin semble être "caché" car d'autres parties de la page Web sont facilement accessibles, mais cette section renvoie une valeur NULL
.Problèmes d'éraflure de la page Web dans R
J'ai essayé d'utiliser plusieurs paquets, mais je ne suis pas vraiment un expert dans le sujet, donc je ne peux pas vraiment évaluer ce qui se passe et si c'est un moyen de le résoudre.
C'est ce que j'ai essayé.
require("XML")
require("scrapeR")
require("httr")
url <- "http://www.claro.com.ar/portal/ar/pc/personas/movil/eq-new/?eq=537"
xp <- '//*[@id="dv_MainContainerEquiposResumen"]/div[1]/h1'
page <- scrape(url)
xpathApply(page[[1]], xp, xmlValue)
# NULL
url.get = GET(url)
xpathSApply(content(url.get), xp)
# NULL
webpage = getURL(url)
doc = htmlTreeParse(webpage, error=function(...){}, useInternalNodes = TRUE)
xpathSApply(doc, xp)
# NULL
C'est excellent! Merci pour votre réponse! – marbel
Heureux d'aider .. – jdharrison