PyQuery(基于lxml模块) Python四个爬虫解析方法之一
pip install pyquery 安装
html = """
<html lang="en">
<head>
简单好用的
<title>PyQuery</title>
</head>
<body>
<ul id="container">
Hello World!
<li class="object-1">Python</li>
<li class="object-2">大法</li>
<li class="object-3">好</li>
</ul>
</body>
</html>
"""
相当于BeautifulSoup库的初识化方法,将html转化为BeautifulSoup对象
初识化方法,将html转化为PyQuery对象
1.1 将字符串初始化
from pyquery import PyQuery as pq
#初始化为PyQuery对象
doc = pq(html)
print(type(doc))
print(doc)
1.2 将html文件初始化
#filename参数为html文件路径
test_html = pq(filename = 'test.html')
print(type(test_html))
print(test_html)
1.3 对网址响应进行初始化
response = pq(url = 'https://www.baidu.com')
print(type(response))
print(response)
二、常用的CCS选择器
打印id为container的标签(#)
print(doc('#container'))
print(type(doc('#container')))
打印class为object-1的标签(.)
print(doc('.object-1'))
多种css选择器使用
print(doc('html #container'))
三、伪类选择器
伪类nth
#打印第二个li标签
print(doc('li:nth-child(2)'))
#打印第一个li标签
print(doc('li:first-child'))
#打印最后一个标签
print(doc('li:last-child'))
contains
#找到含有Python文本的li标签
print(doc("li:contains('Python')"))
#找到含有好文本的li标签
print(doc("li:contains('好')"))
四、查找标签
按照条件在Pyquery对象中查找符合条件的标签,类似于BeautifulSoup中的find方法
打印id=container的标签
print(doc.find('#container'))
print(doc.find('li'))
4.2 子辈标签-children方法
#id=container的标签的子辈标签
container = doc.find('#container')
print(container.children())
4.3 父辈标签-parent方法
object_2 = doc.find('.object-2')
print(object_2.parent())
4.4 兄弟标签-siblings方法
object_2 = doc.find('.object-2')
print(object_2.siblings())
**五、获取标签的信息
定位到目标标签后,我们需要标签内部的文本或者属性值,这时候需要进行提取文本或属性值操作
5.1 标签属性值的提取
.attr() 传入 标签的属性名,返回属性值**
object_2 = doc.find('.object-2')
print(object_2.attr('class'))
5.2 标签内的文本
.text()
print(doc.text())
object_1 = doc.find('.object-1')
print(object_1.text())
container = doc.find('#container')
print(container.text())
tips:如果我只想获得Hello World这个,不想得到其他的文本,可以使用remove方法将li标签去掉,然后再使用text方法
container = docs.find('#container')
container.remove('li')
print(container.text())
pyquery一些自定义的用法
访问网址
from pyquery import PyQuery
PyQuery(url = 'https://www.baidu.com')
opener参数
这是PyQuery对百度网址进行请求,并将请求返回的响应数据处理为PyQuery对象。一般pyquery库会默认调用urllib库,如果想使用selenium或者requests库,可以自定义PyQuery的opener参数。
opener参数作用是告诉pyquery用什么请求库对网址发起请求。常见的请求库如urllib、requests、selenium。这里我们自定义一个selenium的opener。
from pyquery import PyQuery
from selenium.webdriver import PhantomJS
#用selenium访问url
def selenium_opener(url):
#我没有将Phantomjs放到环境变量,所以每次用都要放上路径
driver = PhantomJS(executable_path = 'phantomjs的路径')
driver.get(url)
html = driver.page_source
driver.quit()
return html
#注意,使用时opener参数是函数名,没有括号的!
PyQuery(url='https://www.baidu.com/', opener=selenium_opener)
cookies、headers
在requests用法中,一般为了访问网址更加真实,模仿成浏览器。一般我们需要传入headers,必要的时候还需要传入cookies参数。而pyquery库就有这功能,也能伪装浏览器。
from pyquery import PyQuery
cookies = {'Cookie':'你的cookie'}
headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'}
PyQuery(url='https://www.baidu.com/',headers=headers,cookies=cookies)
让你的selenium带上pyquery功能
让driver访问的网址得到的网页直接变为PyQuery对象,更方便提取数据
from pyquery import PyQuery
from selenium.webdriver import PhantomJS
class Browser(PhantomJS):
@property
def dom(self):
return PyQuery(self.page_source)"""
这部分property是装饰器,需要知道@property下面紧跟的函数,实现了类的属性功能。
这里browser.dom,就是browser的dom属性。
"""
browser = Browser(executable_path='phantomjs的路径')
browser.get(url='https://www.baidu.com/')
print(type(browser.dom))