当前位置: 首页 > 软件库 > 程序开发 > 常用工具包 >

proxy_pool

Python 代理 IP 池
授权协议 MIT
开发语言 Python
所属分类 程序开发、 常用工具包
软件类型 开源软件
地区 国产
投 递 者 申屠宏胜
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

爬虫代理IP池

1、问题

  • 代理IP从何而来?
      刚自学爬虫的时候没有代理IP就去西刺、快代理之类有免费代理的网站去爬,还是有个别代理能用。当然,如果你有更好的代理接口也可以自己接入。
      免费代理的采集也很简单,无非就是:访问页面页面 —> 正则/xpath提取 —> 保存

  • 如何保证代理质量?
      可以肯定免费的代理IP大部分都是不能用的,不然别人为什么还提供付费的(不过事实是很多代理商的付费IP也不稳定,也有很多是不能用)。所以采集回来的代理IP不能直接使用,可以写检测程序不断的去用这些代理访问一个稳定的网站,看是否可以正常使用。这个过程可以使用多线程或异步的方式,因为检测代理是个很慢的过程。

  • 采集回来的代理如何存储?
      这里不得不推荐一个高性能支持多种数据结构的NoSQL数据库SSDB,用于代理Redis。支持队列、hash、set、k-v对,支持T级别数据。是做分布式爬虫很好中间存储工具。

  • 如何让爬虫更简单的使用这些代理?
      答案肯定是做成服务咯,python有这么多的web框架,随便拿一个来写个api供爬虫调用。这样有很多好处,比如:当爬虫发现代理不能使用可以主动通过api去delete代理IP,当爬虫发现代理池IP不够用时可以主动去refresh代理池。这样比检测程序更加靠谱。

    2、代理池设计

      代理池由四部分组成:

  • ProxyGetter:
      代理获取接口,目前有5个免费代理源,每调用一次就会抓取这个5个网站的最新代理放入DB,可自行添加额外的代理获取接口;

  • DB:
      用于存放代理IP,现在暂时只支持SSDB。至于为什么选择SSDB,大家可以参考这篇文章,个人觉得SSDB是个不错的Redis替代方案,如果你没有用过SSDB,安装起来也很简单,可以参考这里

  • Schedule:
      计划任务用户定时去检测DB中的代理可用性,删除不可用的代理。同时也会主动通过ProxyGetter去获取最新代理放入DB;

  • ProxyApi:
      代理池的外部接口,由于现在这么代理池功能比较简单,花两个小时看了下Flask,愉快的决定用Flask搞定。功能是给爬虫提供get/delete/refresh等接口,方便爬虫直接使用。

    3、代码模块

      Python中高层次的数据结构,动态类型和动态绑定,使得它非常适合于快速应用开发,也适合于作为胶水语言连接已有的软件部件。用Python来搞这个代理IP池也很简单,代码分为6个模块:

  • Api:
      api接口相关代码,目前api是由Flask实现,代码也非常简单。客户端请求传给Flask,Flask调用ProxyManager中的实现,包括get/delete/refresh/get_all

  • DB:
      数据库相关代码,目前数据库是采用SSDB。代码用工厂模式实现,方便日后扩展其他类型数据库;

  • Manager:
      get/delete/refresh/get_all等接口的具体实现类,目前代理池只负责管理proxy,日后可能会有更多功能,比如代理和爬虫的绑定,代理和账号的绑定等等;

  • ProxyGetter:
      代理获取的相关代码,目前抓取了快代理代理66有代理西刺代理guobanjia这个五个网站的免费代理,经测试这个5个网站每天更新的可用代理只有六七十个,当然也支持自己扩展代理接口;

  • Schedule:
      定时任务相关代码,现在只是实现定时去刷新代码,并验证可用代理,采用多进程方式;

  • Util:
      存放一些公共的模块方法或函数,包含GetConfig:读取配置文件config.ini的类,ConfigParse: 集成重写ConfigParser的类,使其对大小写敏感, Singleton:实现单例,LazyProperty:实现类属性惰性计算。等等;

  • 其他文件:
      配置文件:Config.ini,数据库配置和代理获取接口配置,可以在GetFreeProxy中添加新的代理获取方法,并在Config.ini中注册即可使用;

    4、安装

    下载代码:

    git clone git@github.com:jhao104/proxy_pool.git
    或者直接到https://github.com/jhao104/proxy_pool 下载zip文件

    安装依赖:

    pip install -r requirements.txt

    启动:

    需要分别启动定时任务和api
    到Config.ini中配置你的SSDB
    项目目录下:
    >>>python -m Schedule.ProxyRefreshSchedule
    到Api目录下:
    >>>python -m Api.ProxyApi

    5、使用

      定时任务启动后,会通过代理获取方法fetch所有代理放入数据库并验证。此后默认每20分钟会重复执行一次。定时任务启动大概一两分钟后,便可在SSDB中看到刷新出来的可用的代理:

  启动ProxyApi.py后即可在浏览器中使用接口获取代理,一下是浏览器中的截图:
  index页面:

  get:

  get_all:

  爬虫中使用,如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:

import requests
def get_proxy():
    return requests.get("http://127.0.0.1:5000/get/").content
def delete_proxy(proxy):
    requests.get("http://127.0.0.1:5000/delete/?proxy={}".format(proxy))
# your spider code
def spider():
    # ....
    requests.get('https://www.example.com', proxies={"http": "http://{}".format(get_proxy)})
    # ....

6、最后

  时间仓促,功能和代码都比较简陋,以后有时间再改进。喜欢的在github上给个star。感谢!

  • linux 部署proxy_pool爬虫代理池 一、介绍 爬虫代理IP池项目,主要功能为定时采集网上发布的免费代理验证入库,定时验证入库的代理保证代理的可用性,提供API和CLI两种使用方式。同时你也可以扩展代理源以增加代理池IP的质量和数量。 GitHub地址:链接 测试地址: http://118.24.52.95:5010 (勿压谢谢) 官方文档: document ************

  • proxy_pool开源项目攻克学习2:服务器架设 在这个文章proxy_pool开源项目攻克学习中,我们完成了本地的proxy_pool架设。现在我们将他转移到服务器上。 硬件环境准备 腾讯centos服务器。 软件环境准备 redis python3.7 proxy_pool开源项目 安装过程 总结安装Proxy_pool的顺序过程 准备环境 python环境 redis服务器 下载安装开源代

  • 问题1:ERROR redis connection error: Error 10061 connecting to 127.0.0.1:6379. 由于目标计算机积极拒绝,无法连接。 解决:下载并安装Redis-x64-3.0.504.msi或zip都行,地址:https://github.com/MicrosoftArchive/redis/releases 问题2:redis中redis.

 相关资料
  • 注解 @ProxyPool 声明代理 IP 池,在爬虫对象或者爬虫项对象上声明,则请求时自动从代理 IP 池中取出代理IP 类名:\Yurun\Crawler\Module\Crawler\Annotation\ProxyPool 参数: 名称 描述 默认值 class 代理 IP 池名 args 实例化参数 method 获取 IP 的方式:random(随机)、next(下一个) 代理 IP

  • 本文将讲述如何配置和启用 ip-masq-agent。 创建 ip-masq-agent 要创建 ip-masq-agent,运行下面的 kubectl 命令: kubectl create -f https://raw.githubusercontent.com/kubernetes-incubator/ip-masq-agent/master/ip-masq-agent.yaml 关于 ip-

  • http代理 <?php $http = HttpRequest::newSession(); $response = $http->proxy('127.0.0.1', 808) // 常见的http代理这样用 ->get('https://www.baidu.com/'); $content = $response->body(); // 网页源码 sock

  • 本文向大家介绍node.js 抓取代理ip实例代码,包括了node.js 抓取代理ip实例代码的使用技巧和注意事项,需要的朋友参考一下 node.js实现抓取代理ip 主要文件:index.js 包支持 : package.json 本地需要安装mongodb数据库,用于存储抓取到的ip,目前还未实现ip验证。写这个主要是处于好奇。 上面的代码就可以实现抓取ip代理网站的ip并存到mongodb数

  • 本文向大家介绍java代理实现爬取代理IP的示例,包括了java代理实现爬取代理IP的示例的使用技巧和注意事项,需要的朋友参考一下 仅仅使用了一个java文件,运行main方法即可,需要依赖的jar包是com.alibaba.fastjson(版本1.2.28)和Jsoup(版本1.10.2) 如果用了pom,那么就是以下两个: 完整的代码如下: 以上这篇java代理实现爬取代理IP的示例就是小编

  • 我已经在EC2上安装了Kafka软件。我的问题是从AWS外部连接到经纪人。这一切都从内部为我工作。 因此,我可以启动代理,并且 kafka 控制台生产者和消费者都可以工作(来自同一服务器)。我有端口 2181 和 9092 打开到远程位置,朝向我想使用 producer 的位置。所以从我的开发(本地)机器.如果我做telnet 9092 - 它会连接我。如果我尝试使用Kafka控制台生产者,我会收

  • 本文向大家介绍php代码检查代理ip的有效性,包括了php代码检查代理ip的有效性的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了检查代理ip有效性php代码,稳定性,如错误率和查询用时 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持呐喊教程。

  • 我对许多AJAX调用运行安全检查,以查看是否有记录在案的相同IP请求。 我使用了以下一组类函数来建立IP(可以通过负载平衡器来实现,因此采用了纵向方法)。 问题是,我的用户通过代理进行操作时遇到了问题。有人能说明原因吗?我已经使用基本免费代理的在线尝试和模拟,但它似乎没有得到可变IP或任何东西-所以我不知道为什么这会说这两个IP不匹配。