前言
大家应该都有所体会,为了提高验证码的识别准确率,我们当然要首先得到足够多的测试数据。验证码下载下来容易,但是需要人脑手工识别着实让人受不了,于是我就想了个折衷的办法——自己造验证码。
为了保证多样性,首先当然需要不同的字模了,直接用类似ttf格式的字体文件即可,网上有很多ttf格式的字体包供我们下载。当然,我不会傻到手动下载解压缩,果断要写个爬虫了。
实现方法
网站一:fontsquirrel.com
这个网站的字体可以免费下载,但是有很多下载点都是外链连接到其他网站的,这部分得忽略掉。
#coding:utf-8 import urllib2,cookielib,sys,re,os,zipfile import numpy as np #网站登陆 cj=cookielib.CookieJar() opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) opener.addheaders=[('User-agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36))')] urllib2.install_opener(opener) #搜索可下载连接 def search(path): request=urllib2.Request(path) response=urllib2.urlopen(request) html=response.read() html=html.replace('\n',' ')#将所有的回车去掉,因为正则表达式是单行匹配。。。。。。 urls=re.findall(r'<a href="(.*?)" rel="external nofollow" >(.*?)</a>',html) for i in urls: url,inner=i if not re.findall(r'Download ',inner)==[] and re.findall(r'offsite',inner)==[] and url not in items: items.append(url) items=[]#保存下载地址 for i in xrange(15): host='http://www.fontsquirrel.com/fonts/list/find_fonts/'+str(i*50)+'?filter%5Bdownload%5D=local' search(host) if not os.path.exists('ttf'): os.mkdir('ttf') os.chdir('ttf') def unzip(rawfile,outputdir): if zipfile.is_zipfile(rawfile): print 'yes' fz=zipfile.ZipFile(rawfile,'r') for files in fz.namelist(): print(files) #打印zip归档中目录 fz.extract(files,outputdir)#解压缩文件 else: print 'no' for i in items: print i request=urllib2.Request('http://www.fontsquirrel.com'+i) response=urllib2.urlopen(request) html=response.read() name=i.split('/')[-1]+'.zip' f=open(name,'w') f.write(html) f.close()#文件记得关闭,否则下面unzip会出错 unzip(name,'./') os.remove(name) os.listdir(os.getcwd()) os.chdir('../') files=os.listdir('ttf/') for i in files:#删除无用文件 if not (i.split('.')[-1]=='ttf' or i.split('.')[-1]=='otf'): if os.path.isdir(i): os.removedirs('ttf/'+i) else: os.remove('ttf/'+i) print len(os.listdir('ttf/'))
搞到了2000+个字体,种类也挺多的,蛮好。
网站二:dafont.com
这个网站的字体花样比较多,下载起来也比较方便,恶心的是他的文件名的编码好像有点问题。
#coding:utf-8 import urllib2,cookielib,sys,re,os,zipfile import shutil import numpy as np cj=cookielib.CookieJar() opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) opener.addheaders=[('User-agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36))')] urllib2.install_opener(opener) items=[] def search(path): request=urllib2.Request(path) response=urllib2.urlopen(request) html=response.read() html=html.replace('\n',' ') urls=re.findall(r'href=\"(http://dl.dafont.com/dl/\?f=.*?)\" >',html) items.extend(urls) for i in xrange(117): host='http://www.dafont.com/new.php?page='+str(i+1) search(host) print 'Page'+str(i+1)+'done' items=list(set(items)) print len(items) if not os.path.exists('ttf2'): os.mkdir('ttf2') os.chdir('ttf2') def unzip(rawfile,outputdir): if zipfile.is_zipfile(rawfile): print 'yes' fz=zipfile.ZipFile(rawfile,'r') for files in fz.namelist(): print(files) #打印zip归档中目录 fz.extract(files,outputdir) else: print 'no' for i in items: print i request=urllib2.Request(i) response=urllib2.urlopen(request) html=response.read() name=i.split('=')[-1]+'.zip' f=open(name,'w') f.write(html) f.close() unzip(name,'./') os.remove(name) print os.listdir(os.getcwd()) for root ,dire,fis in os.walk('./'):#递归遍历文件夹 for i in fis: if not (i.split('.')[-1]=='ttf' or i.split('.')[-1]=='otf'): os.remove(root+i) print i for i in os.listdir('./'): if os.path.isdir(i): os.rmdir(i) os.chdir('../')
总体操作跟之前的差不多,跑了几十分钟下了4000多的字体。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家学习或者使用python能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对小牛知识库的支持。
本文向大家介绍python爬虫之爬取百度音乐的实现方法,包括了python爬虫之爬取百度音乐的实现方法的使用技巧和注意事项,需要的朋友参考一下 在上次的爬虫中,抓取的数据主要用到的是第三方的Beautifulsoup库,然后对每一个具体的数据在网页中的selecter来找到它,每一个类别便有一个select方法。对网页有过接触的都知道很多有用的数据都放在一个共同的父节点上,只是其子节点不同。在上次
本文向大家介绍Python实现爬取逐浪小说的方法,包括了Python实现爬取逐浪小说的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下: 本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容的脚本玩玩。于是
本文向大家介绍Python爬取三国演义的实现方法,包括了Python爬取三国演义的实现方法的使用技巧和注意事项,需要的朋友参考一下 本文的爬虫教程分为四部: 1.从哪爬 where 2.爬什么 what 3.怎么爬 how 4.爬了之后信息如何保存 save 一、从哪爬 三国演义 二、爬什么 三国演义全文 三、怎么爬 在Chrome页面打开F12,就可以发现
本文向大家介绍Python读取xlsx文件的实现方法,包括了Python读取xlsx文件的实现方法的使用技巧和注意事项,需要的朋友参考一下 脚本如下: 实例:python读取excel数据做分类统计 某excel中记录了某个人的通话记录,下面程序将按照通话地点,通话类型等统计通话时间 再优化下代码 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持呐喊教程。
本文向大家介绍Python脚本实现格式化css文件,包括了Python脚本实现格式化css文件的使用技巧和注意事项,需要的朋友参考一下 最近研究研究了css,少不了去网上分析一下别人的网页, 但很多网站的css文件都是要么写在一行,要么一个换行都没有,看起来极其痛苦,所以写一个脚本转换一下,转换为比较有可读性的格式。下面就是这个脚本: 使用方法: python cssformat.py 待转换的
本文向大家介绍python实现调用其他python脚本的方法,包括了python实现调用其他python脚本的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了python实现调用其他python脚本的方法,分享给大家供大家参考。具体方法如下: 该实例调用当前目录下的md5get.py脚本。代码如下: 希望本文所述对大家的Python程序设计有所帮助。