当前位置: 首页 > 知识库问答 >
问题:

使用rvest进行Web刮取

赵刚豪
2023-03-14
webpage<-read_html('https://www.superu.ad/oli-de-girasol_c360259/')
rank_data_html <- html_nodes(webpage,'.product-name') #returns nothing

共有1个答案

柳项明
2023-03-14

这应该起作用:

library(rvest)
library(dplyr) # to use the pipes %>%
webpage = read_html('https://www.superu.ad/oli-de-girasol_c360259/')
product_names = webpage %>% 
html_nodes(xpath= '//*[contains(concat( " ", @class, " " ), concat( " ", "product-name", " " ))]') %>%
html_text()

product_names

您应该将Xpath与rvest一起使用,它比CSS选择器工作得更好。

要获得Xpath,可以使用Chrome的SelectorGadget扩展(可以切换到Xpath)。

 类似资料:
  • 理想情况下,我的最终数据帧将如下所示: 我已经挣扎了一段时间,现在让这个工作,并将感谢任何帮助。

  • 这是我的代码: 我在找“eFotrait-table”: 具体来说,这一条:

  • 我在下面提供了一些示例,但是我需要清除大部分可用的数据元素,所以不是寻找复制和粘贴的代码,而是寻找最好的方法。见下文。 链接:https://boardgamegeek.com/boardgame/63888/innovation 我试图从中提取的HTML示例。Span没有返回html_nodes,所以我无法从那里开始。 我假设这是JSON?有没有一种方法来解析html_text输出,或者另一种方

  • 我试图刮一个页面与美丽的汤,有

  • 最近我一直在用Python和靓汤学习网页刮刮乐。然而,当我试图刮下下面的页面时,我遇到了一点麻烦: http://www.librarything.com/work/3203347 我想从页面上得到的数据是这本书的标签,但我找不到任何方法来获取数据,尽管我花了很多时间在网上拖网。 我试着在网上看了几本指南,但似乎没有一本奏效。我尝试将页面转换为XML和JSON,但仍然找不到数据。 我现在有点手足无

  • 我想从这个网页下载数据 因此,如果我使用代码,我可以刮50个国家的数据。 按钮是在中创建的,所以我想知道在中是否有方法单击该按钮然后刮取数据。