背景
要做IP地址归属地查询,量比较大,所以想先从网上找到大部分的分配数据,写个蜘蛛程序来抓取入库,以后在程序的运行中不断进行维护、更新、完善。
一些关键点
代码解析
按功能模块对核心代码进行说明
ip.go
主进程,实现goroutine的调用。
func main() { //利用go基本库封装的网页抓取函数,后面有说明 ctx := common.HttpGet("http://ips.chacuo.net/") //正则表达式,有两个分组(两组小括号),分别取城市信息与url,具体分析代码后面有说明 reg := regexp.MustCompile(`<li><a title="[\S]+" href='([^']+?)'>([^<]+?)</a></li>`) //取得页面上所有的城市及相应url ips := reg.FindAllStringSubmatch(string(ctx), -1) ch := make(chan string) //建立无缓冲字符串通道 for _, el := range ips { //一个协程处理一个具体页面 go ipSpider.SpiderOnPage(el[1], el[2], ch) } for range ips { //阻塞等待所有抓取工作全部完成 fmt.Println(<-ch) } }
正则表达式说明
主进程针对所有省有入口页面,取得每省的入口分配给一个协程去处理,每一个入口是这个样子
<a title="北京最新IP地址段" href="http://ips.chacuo.net/view/s_BJ" rel="external nofollow" >北京</a>
goroutine 流程
获取ip地址信息
与主进程类似,注意无信息时处理。
IpSpider.go
//获取页面数据 ctx := common.HttpGet(url) //reg := regexp.MustCompile(`<li><a title="[\S]+" href='([^']+?)'>([^<]+?)</a></li>`) //两个分组分别对应IP段开始与结束 reg := regexp.MustCompile(`<dd><span class="v_l">([^<]+?)</span><span class="v_r">([^<]+?)</span><div class="clearfix"></div></dd>`) //<dd><span class="v_l">49.64.0.0</span><span class="v_r">49.95.255.255</span><div class="clearfix"></div></dd> //取得所有匹配的分组信息 ip := reg.FindAllStringSubmatch(string(ctx), -1) //没有取得任何信息,提前返回,很重要,不然主进程会一直等待结束不了 if len(ip) == 0 { ch <- "There are no data exist." return nil }
数据库表结构生成语句
CREATE TABLE `ip_addr_info` ( `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '索引,自动增长', `ip_addr_begin` varchar(32) NOT NULL DEFAULT '' COMMENT 'ip地址段开始', `ip_addr_end` varchar(32) DEFAULT '' COMMENT 'ip地址段结束', `province` varchar(32) DEFAULT '' COMMENT '所属省', `ip_comp` varchar(32) DEFAULT '' COMMENT '运营商', PRIMARY KEY (`id`), UNIQUE KEY `ip_addr` (`ip_addr_begin`,`ip_addr_end`) ) ENGINE=InnoDB AUTO_INCREMENT=7268 DEFAULT CHARSET=utf8 COMMENT='表';
批量写入数据库
循环处理抓取数据,生成批量写入语句及输入参数,请签到出到afc9ebd版本。
var vs [] interface{} //存储输入参数的接口数组 var vss string //待拼接的输入参数占位符字符串 for _, el := range ip { //处理所有的数据 vs = append(vs, el[1], el[2], province) //每一列包括开始地址、结束地址与省份 vss += "(?,?,?)," //占位符 } vss = vss[0:len(vss) -1] //去掉最后的逗号 var configs interface{} //从配置文件取数据库信息 fr, err := os.Open("./configs.json") //配置文件内容请参照上篇文章《golang实现mysql数据库备份》 if err != nil { ch <- err.Error() return err } decoder := json.NewDecoder(fr) err = decoder.Decode(&configs) confs := configs.(map[string]interface{}) dialect := confs["database_dialect"].(string) dbConf := confs["db_"+dialect+"_config"].(map[string]interface{}) dbHost := dbConf["db_host"].(string) dbPort := strconv.FormatFloat(dbConf["db_port"].(float64), 'f', -1, 32) dbUser := dbConf["db_user"].(string) dbPass := dbConf["db_pass"].(string) dbName := dbConf["db_name"].(string) dbCharset := dbConf["db_charset"].(string) dao, err := mysql.Open(dialect, dbUser + ":"+dbPass+"@tcp("+dbHost+":"+dbPort+")/"+dbName+"?charset="+dbCharset) defer dao.Close() if err != nil { ch <- err.Error() return err } //批量插入语句拼接 sqlstr := "insert into ip_addr_info (ip_addr_begin,ip_addr_end,province) values " + vss stmt, err := dao.Prepare(sqlstr) //预处理带参数的sql语句 rs, err := stmt.Exec(vs...) //带参数执行sql语句 if err != nil { //出错,返回错误信息 ch <- err.Error() return err }else { //成功,返回成功信息 affect, _ := rs.RowsAffected() ch <- "Province: " + province + ", affect: " + strconv.FormatInt(affect, 10) return nil }
批量修改数据库
数据库中的ip_comp字段,是代表运营商信息,需要从运营商页面进入进行数据获取,只需改一下入口url重新运行程序就能正确抓取,但这时入库就不是新增了,而是更新,请签出到4729e66版本。
//前提数据库表定义要设定唯一索引,主键或其它定义的unique索引 ... sqlstr := "insert into ip_addr_info (ip_addr_begin,ip_addr_end,ip_comp) values " + vss + //提供更新(唯一索引冲突时)时要对应原字段与值 " ON DUPLICATE KEY UPDATE ip_addr_begin = values(ip_addr_begin), ip_addr_end = values(ip_addr_end), ip_comp = values(ip_comp)" stmt, err := dao.Prepare(sqlstr) rs, err := stmt.Exec(vs...) if err != nil { ch <- err.Error() return err }else { affect, _ := rs.RowsAffected() ch <- "Province: " + province + ", affect: " + strconv.FormatInt(affect, 10) return nil }
待改进的方面
把入口url提到配置中,使用策略模式,让匹配规则抽象成策略,目标是不改程序,调整配置文件就可以抓取不同的网页。
项目地址
https://github.com/zhoutk/goTools
使用方法
git clone https://github.com/zhoutk/goTools cd goTools go get go run ip.go go buid ip.go ./ip
小结
熟悉了golang语言,了解了一种全新的并发编程模式,熟悉了具体的数据库操作方法,给自己生成了一个方便的工具。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对小牛知识库的支持。
我写一个Scrapy蜘蛛,每天一次爬行一组网址。然而,其中一些网站非常大,所以我不能每天抓取整个网站,也不想产生大量的流量。 一个老问题(这里)问了一些类似的问题。但是,向上投票的响应只是指向一个代码段(此处),它似乎需要请求实例的某些内容,尽管响应中以及包含代码段的页面上都没有对此进行解释。 我试图理解这一点,但发现中间件有点混乱。无论是否使用链接的中间件,一个完整的刮板机示例都非常有用,该刮板
本文向大家介绍Python打印scrapy蜘蛛抓取树结构的方法,包括了Python打印scrapy蜘蛛抓取树结构的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python打印scrapy蜘蛛抓取树结构的方法。分享给大家供大家参考。具体如下: 通过下面这段代码可以一目了然的知道scrapy的抓取页面结构,调用也非常简单 希望本文所述对大家的Python程序设计有所帮助。
本文向大家介绍python实现扫描ip地址的小程序,包括了python实现扫描ip地址的小程序的使用技巧和注意事项,需要的朋友参考一下 python实现扫描ip地址的小程序,具体代码如下所示: 总结 以上所述是小编给大家介绍的python实现扫描ip地址的小程序,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对呐喊教程网站的支持! 如果你觉得本文对你有帮
问题内容: 我想将ReCAPTCHA集成到我的GAE Golang Web应用程序中。为了验证验证码,我需要获取用户的IP地址。如何从表单发布中获取用户的IP地址? 问题答案: 在您的处理函数中调用r.RemoteAddr以接收ip:port 像这样: @AigarsMatulis指出,在02/15/2017更新,在当前版本中已经有一个函数可以执行此操作
蜘蛛记录分为两部分: 时间筛选 和 蜘蛛记录 (详情) 1.时间筛选 便捷按钮有今日、昨日、前日、上周 X、近七天,并且能自定义选择时间段来得出想要的结果报表 2.蜘蛛记录 (时间段详情) 1)蜘蛛记录便是搜索引擎通过蜘蛛爬行所留下的痕迹,蜘蛛记录中的细分做的非常的详细, 包含蜘蛛IP地址、访问URL、蜘蛛类型、来访时间 2)搜索引擎爬取网页时,只有触发js统计代码才能被统计,故数据仅供参考
海蜘蛛EWP(Easy Webserver Platform)是专门针对服务器运营商/企业等为各类网站运营而设计的稳定易用Web服务平台。它兼有路由器的功能,集专业级防火墙于一体,能够精确控制内外网的访问和各个用户的权限,打造一个高稳定性、易维护、投资低的全新智能化Web应用平台。 EWP基于嵌入式架构,提供稳定高效的底层核心功能和应用接口。能够兼容绝大多数国内外常见的Web应用,提供主流的Web