当前位置: 首页 > 编程笔记 >

golang解析网页利器goquery的使用方法

鲜于凯歌
2023-03-14
本文向大家介绍golang解析网页利器goquery的使用方法,包括了golang解析网页利器goquery的使用方法的使用技巧和注意事项,需要的朋友参考一下

前言

本文主要给大家介绍了关于golang解析网页利器goquery使用的相关内容,分享出来供大家参考学习,下面话不多说了,来一起看看详细的介绍吧。

java里用Jsoup,nodejs里用cheerio,都可以相当方便的解析网页,在golang语言里也找到了一个网页解析的利器,相当的好用,选择器跟jQuery一样

安装

go get github.com/PuerkitoBio/goquery

使用

其实就是项目的readme.md里的demo

package main

import (
 "fmt"
 "log"

 "github.com/PuerkitoBio/goquery"
)

func ExampleScrape() {
 doc, err := goquery.NewDocument("http://metalsucks.net")
 if err != nil {
 log.Fatal(err)
 }

 // Find the review items
 doc.Find(".sidebar-reviews article .content-block").Each(func(i int, s *goquery.Selection) {
 // For each item found, get the band and title
 band := s.Find("a").Text()
 title := s.Find("i").Text()
 fmt.Printf("Review %d: %s - %s\n", i, band, title)
 })
}

func main() {
 ExampleScrape()
}

乱码问题

中文网页都会有乱码问题,因为它默认是utf8编码,这时候就要用到转码器了

安装 iconv-go

go get github.com/djimenez/iconv-go

使用方法

func ExampleScrape() {
 res, err := http.Get(baseUrl)
 if err != nil {
 fmt.Println(err.Error())
 } else {
 defer res.Body.Close()
 utfBody, err := iconv.NewReader(res.Body, "gb2312", "utf-8")
 if err != nil {
  fmt.Println(err.Error())
 } else {
  doc, err := goquery.NewDocumentFromReader(utfBody)
  // 下面就可以用doc去获取网页里的结构数据了
  // 比如
  doc.Find("li").Each(func(i int, s *goquery.Selection) {
  fmt.Println(i, s.Text())
  })
 }
 }
}

进阶

有些网站会设置Cookie, Referer等验证,可以在http发请求之前设置上请求的头信息

这个不属于goquery里的东西了,想了解更多可以查看golang里的 net/http 包下的方法等信息

baseUrl:="http://baidu.com"
client:=&http.Client{}
req, err := http.NewRequest("GET", baseUrl, nil)
req.Header.Add("User-Agent", "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36")
req.Header.Add("Referer", baseUrl)
req.Header.Add("Cookie", "your cookie") // 也可以通过req.Cookie()的方式来设置cookie
res, err := client.Do(req)
defer res.Body.Close()
//最后直接把res传给goquery就可以来解析网页了
doc, err := goquery.NewDocumentFromResponse(res)

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对小牛知识库的支持。

参考

  • https://github.com/PuerkitoBio/goquery
  • https://github.com/PuerkitoBio/goquery/issues/185
  • https://github.com/PuerkitoBio/goquery/wiki/Tips-and-tricks#handle-non-utf8-html-pages
 类似资料:
  • 本文向大家介绍golang解析html网页的方法,包括了golang解析html网页的方法的使用技巧和注意事项,需要的朋友参考一下 1.先看一下整个结构: 主要是web和html目录,分别存放go代码和html相关的资源文件。 2.html代码比较简单,代码如下: 就是显示一张图片,然后加登陆表单。 3.而go代码也比较简单,如下: 主要是注意显示图片的路径,不能是原来的html的路径,必须是go

  • 本文向大家介绍Android开发之利用jsoup解析HTML页面的方法,包括了Android开发之利用jsoup解析HTML页面的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Android利用jsoup解析HTML页面的方法。分享给大家供大家参考,具体如下: 这节主要是讲解jsoup解析HTML页面。由于在android开发过程中,不可避免的涉及到web页面的抓取,解析,展示等等,

  • 本文向大家介绍golang抓取网页并分析页面包含的链接方法,包括了golang抓取网页并分析页面包含的链接方法的使用技巧和注意事项,需要的朋友参考一下 1. 下载非标准的包,"golang.org/x/net/html" 2. 先安装git,使用git命令下载 3. 将net包,放到GOROOT路径下 比如: 我的是:GOROOT = E:\go\ 所以最终目录是:E:\go\src\golang

  • 本文向大家介绍Python requests获取网页常用方法解析,包括了Python requests获取网页常用方法解析的使用技巧和注意事项,需要的朋友参考一下 这篇文章主要介绍了Python requests获取网页常用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 主要记录使用 requests 模块获取网页源码的方法 以上就是本文

  • 本文向大家介绍python使用BeautifulSoup分析网页信息的方法,包括了python使用BeautifulSoup分析网页信息的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了python使用BeautifulSoup分析网页信息的方法。分享给大家供大家参考。具体如下: 这段python代码查找网页上的所有链接,分析所有的span标签,并查找class包含titletext的

  • goquery是一个使用go语言写成的HTML解析库,可以让你像jQuery那样的方式来操作DOM文档。下面是示例: func ExampleScrape_MetalReview() {  // Load the HTML document (in real use, the type would be *goquery.Document)  var doc *Document  var e er