我们之前一直都在使用的urlopen,这是一个特殊的opener(也就是模块帮我们构建好的)。
但是基本的urlopen()方法不支持代理、cookie等其他的HTTP/HTTPS高级功能。所以要支持这些功能:
1.使用相差的Handler处理器来创建特定功能的处理器对象;
2.然后通过urllib.request.build_opener()方法,创建自定义opener对象
3.使用自定义的opener对象,调用open()方法发送请求。
如果程序里所有的请求都使用自定义的opener,可以使用urllib.request.install_opener()将自定义的opener对象定义为全局opener,表示如果之后凡是调用urlopen,都将使用这个opener(根据自己的需求来选择)
简单的自定义opener()
#!/usr/bin/python3 # -*- coding:utf-8 -*- __author__ = 'mayi' import urllib.request # 构建一个HTTPHandler处理器对象,支持处理HTTP请求。 http_handler = urllib.request.HTTPHandler() # # 构建一个HTTPSHandler处理器对象,支持处理HTTPS请求 # https_handler = urllib.request.HTTPSHandler() # 调用urllib.request.build_opener()方法,创建支持处理HTTP请求的opener对象 opener = urllib.request.build_opener(http_handler) # 构建Request请求 request = urllib.request.Request("http://www.baidu.com/") # 调用自定义opener对象的open()方法,发送request请求 response = opener.open(request) # 获取服务器响应内容 html = response.read() print(html)
这种方式发送请求得到的结果,和使用urllib.request.urlopen()发送HTTP/HTTPS请求得到的结果是一样的。
如果在HTTPHandler()增加debuglevel = 1参数,还会将Debug Log打开,这样程序在执行的时候,会把收包和发包的报头在屏幕上自动打印出来,方便调度,有时可以省去抓包的工作。
# 仅需要修改的代码部分: # 构建一个HTTPHandler 处理器对象,支持处理HTTP请求,同时开启Debug Log,debuglevel 值默认 0 http_handler = urllib.request.HTTPHandler(debuglevel = 1) # 构建一个HTTPHSandler 处理器对象,支持处理HTTPS请求,同时开启Debug Log,debuglevel 值默认 0 https_handler = urllib.request.HTTPSHandler(debuglevel = 1)
ProxyHandler处理器(IP代理设置)
很多网站会检测某一段时间IP的访问次数(通过流量统计、系统日志等),如果某个IP访问次数多的不像正常人,它会禁止这个IP的访问。
所以我们通常可以设置一些代理服务器,每隔一段时间换一个代理,就算IP被禁止,依然可以换个IP继续爬取。
urllib.request中通过ProxyHandler来设置使用代理服务器,下面代码说明如何使用自定义opener来使用代理:
#!/usr/bin/python3 # -*- coding:utf-8 -*- __author__ = 'mayi' """ ProxyHandler处理器(代理设置) 很多网站会检测某一段时间某个IP的访问次数(通过流量统计,系统日志等),如果 访问次数多的不像正常人,它会禁止这个IP的访问。 所以我们可能通过设置一些代理服务器,每隔一段时间换一个代理IP,就算IP被禁 止,我们依然可以换个IP继续爬取。 """ import urllib.request # 构建了两个代理Handler,一个有代理IP,一个没有代理IP http_proxy_handler = urllib.request.ProxyHandler({"http":"222.33.192.238:8118"}) null_proxy_handler = urllib.request.ProxyHandler({}) # 定义一个代理开关 proxy_switch = True # 根据代理开关是否拱形,使用不同的代理模式 # 通过urllib.request.build_opener()方法使用这些代理Handler对象,创建自定义opener对象 if proxy_switch: opener = urllib.request.build_opener(http_proxy_handler) else: opener = urllib.request.build_opener(null_proxy_handler) request = urllib.request.Request("http://www.baidu.com/") # 1. 如果这么写,只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。 response = opener.open(request) # 2. 如果这么写,就是将opener应用到全局,之后所有的,不管是opener.open()还是urlopen() 发送请求,都将使用自定义代理。 # urllib.request.install_opener(opener) # response = urlopen(request) html = response.read() print(html)
免费的开放代理获取基本没有什么成本,我们可以在一些代理网站上收集这些免费代理,测试后如果可以用,就把它收集起来用在爬虫上面。
免费代理网站举例:
如果代理IP足够多,就可以让程序随机获取一个代理IP去访问网站。
import random proxy_list = [ {"http" : "1.85.220.77:8118"}, {"http" : "110.73.6.57:8123"}, {"http" : "171.39.4.8:8123"}, {"http" : "122.244.53.133:808"}, {"http" : "171.39.75.81:8123"} ] # 随机选择一个代理 proxy = random.choice(proxy_list)
但是,这些免费开放的代理一般会有很多人都在使用,而且代理有寿命短、速度慢、匿名度不高、HTTP/HTTPS支持不稳定等缺点。
所以,要根据自己的需求,选择是否需要使用高品质的私密代理(通常需要找专门的代理供应商购买,再通过用户名/密码授权使用)。
Cookie
Cookie是指某些网站服务器为了辨别用户身份和进行Session跟踪,而储存在用户浏览器上的文本文件,Cookie可以保持登录信息到用户下次与服务器的会话。
Cookie原理
HTTP是无状态的面向连接的协议,为了保持连接状态,引入了Cookie机制,Cookie是HTTP消息头中的一种属性,包括:
使用Cookie进行安全连接(Secure)。
前两个参数是Cookie应用的必要条件,另外,还包括Cookie大小(Size,不同浏览器对Cookie个数及大小限制是有差异的)。
Cookie由变量名和值组成,根据Netscape公司的规定,Cookie格式如下:
Set-Cookie: NAME=VALUE;Expires=DATE;Path=PATH;Domain=DOMAIN_NAME;SECURE
http.cookiejar库和HTTPCookieProcessor处理器
在Python3.x处理Cookie,一般是通过http.cookjar模块和urllib.request模块的HTTPCookieProcessor处理器类一起使用。
http.cookjar模块:主要作用是提供用于存储cookie的对象
HTTPCookieProcessor处理器:主要作用是处理这些cookie对象,并构建handler对象。
http.cookjar库
该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。
其实大多数情况下,我们只用CookieJar(),如果需要和本地文件交互,就用MozillaCookiejar()或LWPCookieJar()
案例:利用http.cookiejar和post登录人人网
#!/usr/bin/python3 # -*- coding:utf-8 -*- __author__ = 'mayi' """ 利用http.cookiejar和post登录人人网 url = "http://www.renren.com/PLogin.do" """ import urllib import urllib.request import http.cookiejar # 构建一个CookieJar对象实例来保存cookie cookie = http.cookiejar.CookieJar() # 使用HTTPCookieProcessor()来创建cookie处理器对象,参数为CookieJar()对象 cookie_handler = urllib.request.HTTPCookieProcessor(cookie) # 通过build_opener()来构建opener opener = urllib.request.build_opener(cookie_handler) # 设置User-Agent头:addheaders接受一个列表,里面每个元素都是一个headers信息的元组,opener将附带headers信息 opener.addheaders = [('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36')] # 需要登录的账户和密码 email = input("请输入您的账户:") password = input("请输入您的密码:") data = {"email": email, "password": password} # 通过urlencode()转码 postdata = urllib.parse.urlencode(data) postdata = postdata.encode(encoding = "utf-8") # str转bytes # 构建Request请求对象,包含需要发送的用户名和密码 request = urllib.request.Request("http://www.renren.com/PLogin.do", data = postdata) # 通过opener发送这个请求,并获取登录后的Cookie值 opener.open(request) # opener包含用户登录后的Cookie值,可以直接访问那些登录后才可以访问的页面 response = opener.open("http://www.renren.com/413928886/profile") # 获取页面内容 html = response.read() # 将页面内容存储至本地磁盘 fo = open("renren.html", "wb") fo.write(html) fo.close()
模拟登录要注意几点:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
如果数据库表中的列名和等价的javabean对象名称不相似,那么我们可以通过使用自定义的对象来映射它们。 看下面的例子。 为了理解上述与DBUtils相关的概念,让我们编写一个将运行读取查询的示例。创建一个示例应用程序。 更新在DBUtils入门程序中创建的文件:MainApp.java。 按照下面的说明编译并运行应用程序。 以下是的内容。 以下是文件的内容。 以下是文件的内容。 完成创建源文件后
我试图加载一个自定义的NiFi处理器,但无法让NiFi加载所有的.nar依赖项,尽管尝试了各种pom.xml配置。我在SO上遇到过一些类似的问题,但还没有找到这个问题的答案。
NiFi 1.2.0 有一个自定义处理器从db读取数据并进一步传递数据。在最近的一次压力测试中,'success'关系队列被阻塞,后来的流也被阻塞,因为处理器转储了几个GBs的数十万个流文件。显然,反压力没有实施。我还读了一篇关于节流和反压的信息帖子。 在处理器中是否需要额外的编码(例如:要实现的某个接口)以使其能够“Hibernate/停止消耗数据”来进行反压,或者一旦处理器的“成功”关系被配置
问题内容: 我有许多需要自定义编组的结构。在测试时,我使用的是JSON和标准的JSON marshaller。由于它不会封送未导出的字段,因此我需要编写一个自定义的MarshalJSON函数,该函数运行良好。当我在父结构上调用json.Marshal时,该结构包含需要自定义编组的字段,它工作正常。 现在,我需要将所有内容封送给BSON进行MongoDB的工作,而我找不到任何有关如何编写自定义BSO
我使用抽象处理器创建了一个自定义注释和注释处理器。这意味着我想在编译之前进行注释处理。我将自定义注释和处理器导出为Jar,并尝试将其与简单的java测试程序一起使用。我确信在编译时它会找到我的java处理器类,但不知何故,我并没有得到我在控制台上期望的o/p。下面是我的处理器中处理方法的代码。 此外,我故意使用以便我得到一个版本警告,它确认当我执行一个测试类时,它找到了我的注释处理器。 这里是我的
我使用的是Nifi 0.4.1版本。我写自定义代码转换CSV到avro格式。我已经创建了类文件,并能够生成nar文件。将nar文件放置在lib目录中,并重新启动nifi服务器。 任何帮助都很感激.. 谢谢,