第一步:创建一个代理处理器ProxyHandler
urllib.request.ProxyHandler(proxies=None)
ProxyHandler是一个类,其参数是一个字典:{“协议类型” :“代理IP:端口号”}。使请求通过代理。如果给定代理,它必须是一个字典映射协议名称到代理的url。默认情况下,从环境变量_proxy中读取代理列表。
第二步:创建一个opener
urllib.request.build_opener(handler)
参数是你创建的处理器对象
第三步:安装opener,install_opener()用来创建(全局)默认opener,这个表示再次调用urlopen将使用你创建的opener,如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响
import urllib.request
url = "http://www.baidu.com"
user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36"
headers = {"User-Agent" : user_agent}
# 创建一个代理处理器ProxyHandler
proxy_handler = urllib.request.ProxyHandler({"http":"118.190.95.35:9001"})
# 创建一个opener
opener = urllib.request.build_opener(proxy_handler)
# 创建请求
request = urllib.request.Request(url, headers=headers)
# 调用opener,获取网页响应
response = opener.open(request)
# 安装opener,install_opener()用来创建(全局)默认opener,这个表示再次调用urlopen将使用你创建的opener,如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响
# urllib.request.install_opener(opener)
# response = opener.open(request)
# 返回HTTP状态码 200 表示访问成功
print(response.getcode())
import requests
url = "http://www.baidu.com"
user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36"
headers = {"User-Agent" : user_agent}
proxies = {"http":"118.190.95.35:9001"}
response = requests.get(url, headers = headers, proxies = proxies)
print(response.status_code)