目标是把腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称、时间、来源以及正文。
接下来分解目标,一步一步地做。
步骤1:将主页上所有链接爬取出来,写到文件里。
python在获取html方面十分方便,寥寥数行代码就可以实现我们需要的功能。
def getHtml(url): page = urllib.urlopen(url) html = page.read() page.close() return html
我们都知道html链接的标签是“a”,链接的属性是“href”,也就是要获得html中所有tag=a,attrs=href 值。
查阅了资料,一开始我打算用HTMLParser,而且也写出来了。但是它有一个问题,就是遇到中文字符的时候无法处理。
class parser(HTMLParser.HTMLParser): def handle_starttag(self, tag, attrs): if tag == 'a': for attr, value in attrs: if attr == 'href': print value
class URLParser(SGMLParser): def reset(self): SGMLParser.reset(self) self.urls = [] def start_a(self,attrs): href = [v for k,v in attrs if k=='href'] if href: self.urls.extend(href)
SGMLParser针对某个标签都需要重载它的函数,这里是把所有的链接放到该类的urls里。
lParser = URLParser()#分析器来的 socket = urllib.urlopen("http://news.qq.com/")#打开这个网页fout = file('urls.txt', 'w')#要把链接写到这个文件里 lParser.feed(socket.read())#分析啦
reg = 'http://news.qq.com/a/.*'#这个是用来匹配符合条件的链接,使用正则表达式匹配 pattern = re.compile(reg)
for url in lParser.urls:#链接都存在urls里 if pattern.match(url): fout.write(url+'\n')
fout.close()
这样子就把所有符合条件的链接都保存到urls.txt文件里了。
步骤2:对于每一个链接,获取它的网页内容。
很简单,只需要打开urls.txt文件,一行一行地读出来就可以了。
也许这里会显得多此一举,但是基于我对解耦的强烈愿望,我还是果断地写到文件里了。后面如果采用面向对象编程,重构起来是十分方便的。
获取网页内容部分也是相对简单的,但是需要把网页的内容都保存到一个文件夹里。
这里有几个新的用法:
os.getcwd()#获得当前文件夹路径 os.path.sep#当前系统路径分隔符(是这个叫法吗?)windows下是“\”,linux下是“/”#判断文件夹是否存在,如果不存在则新建一个文件夹 if os.path.exists('newsdir') == False: os.makedirs('newsdir')
#str()用来将某个数字转为字符串 i = 5 str(i)
有了这些方法,将字符串保存到某个文件夹下不同的文件就不再是一件困难的事了。
步骤3:枚举每一个网页,根据正则匹配获得目标数据。
下面的方法是用来遍历文件夹的。
#这个是用来遍历某个文件夹的 for parent, dirnames, filenames in os.walk(dir): for dirname in dirnames print parent, dirname for filename in filenames: print parent, filename
遍历,读取,匹配,结果就出来了。
我使用的数据提取的正则表达式是这样的:
reg = '<div class="hd">.*?<h1>(.*?)</h1>.*?<span class="pubTime">(.*?)</span>.*?<a .*?>(.*?)</a>.*?<div id="Cnt-Main-Article-QQ" .*?>(.*?)</div>'
其实这个并不能匹配到腾讯网的所有新闻,因为上面的新闻有两种格式,标签有一点差别,所以只能提取出一种。
另外一点就是通过正则表达式的提取肯定不是主流的提取方法,如果需要采集其他网站,就需要变更正则表达式,这可是一件比较麻烦的事情。
提取之后观察可知,正文部分总是会参杂一些无关信息,比如“<script>...</script>”“<p></p>”等等。所以我再通过正则表达式将正文切片。
def func(str):#谁起的这个名字 strs = re.split("<style>.*?</style>|<script.*?>.*?</script>|&#[0-9]+;|<!--\[if !IE\]>.+?<!\[endif\]-->|<.*?>", str)#各种匹配,通过“|”分隔 ans = '' #将切分的结果组合起来 for each in strs: ans += each return ans
这样腾讯网上面的正文基本全部能够提取出来。
到此整个采集也就结束了。
展示一下我提取到的结果(不使用自动换行,右边隐藏了):
注意:
1、打开某个网址的时候,如果网址是坏的(打不开),若不处理则会报错。我简单地使用处理异常的方式,估计应该有其他方式。
try: socket = urllib.urlopen(url) except: continue
2、Python正则表达式中的“.”号,可以匹配任意字符,但是除了“\n”。
3、如何去除字符串末尾的“\n”?python的处理简直优雅到死啊!
if line[-1] == '\n': line = line[0:-1]
美容新闻淘客免维护全自动采集 1.采集瑞丽女性美容频道文章,免维护全自动采集 2.可自定义网站标题,关键字,描述等 3.可选择是否应用新浪SAE平台 支持 新浪SAE环境 与普通环境自由切换 4.自定义推广产品 5.自定义广告链接 6.自定义文章替换规则方便推广 7.自定义是否开启缓存 自定义缓存时间 8.url采用base64_decode处理 9.本站代码完全开源 10.增加清空缓存 11.增
在字节今日头条有10个月的实习经历,腾讯新闻和今日头条有很多类似的地方,面试官会结合实习经历问一些业务中的场景题,部分问题没想出来会一步步引导,体验不错; 最后挂的原因,我觉得是二面算法题想到了思路但是没写出来,八股和业务聊得还不错; 记录的是能想起来的一些问题,答案仅供参考,建议自己查一下,一般都会问的比较深入。 一面 55mins 实习经历聊的比较多,没有问java基础了,问了一些androi
面完一小时内流程结束,挂
本文向大家介绍Python爬虫爬取新闻资讯案例详解,包括了Python爬虫爬取新闻资讯案例详解的使用技巧和注意事项,需要的朋友参考一下 前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 一个简单的Python资讯采集案例,列表页到详情页,到数据保存,保存为txt文档,网站网页结构算是比较规整,简单清晰明了,资讯新闻内容的采
笔试时间:2023年3月23日 腾讯音乐 春招实习 第一题 题目:二叉树赋值 小红拿到了一个二叉树,二叉树共有n个节点。小红希望你将所有节点赋值为1到n的正整数,且没有两个节点的值相等。需要满足:奇数层的权值和与偶数层的权值和之差的绝对值不超过1。如果有多种赋值方案,请返回任意—种方案。如果无解,请返回空树。数据范围: 1<n ≤105。给定的二叉树节点初始权值默认为-1。 示例输入一 {-1,-
笔试时间:2023年3月26日 春招实习 第一题 题目:层序遍历二叉树 小红拿到一棵满二叉树,她通过层序遍历的顺序把每个节点的权值都告诉了你,保证每个节点的权值都不相同。现在小红有q次询问,每次询问一个权值,小红想知道: 1、这个节点是否存在? 2、这个节点的左儿子和右儿子的权值是多少? 输入描述 第一行输入一个正整数n,代表二叉树的层数; 第二行输入 2n-1个正整数ai,代表这个完全二叉树的层