目的:在百度贴吧输入关键字和要查找的起始结束页,获取帖子里面楼主所发的图片
思路:
注意事项:
#!/usr/bin/env python # -*- coding:utf-8 -*- import urllib2 import urllib import os from lxml import etree keyword = raw_input('请输入要查询的关键字: ') keyword = {'kw':keyword} kw = urllib.urlencode(keyword) startpage = raw_input('请输入开始页数: ') endpage = raw_input('请输入结束页数: ') url = 'https://tieba.baidu.com/f' + '?' + kw print('开始下载...') # 计算下载的图片个数,注意:变量n如放在最外层循环,可以统计每个分页图片个数 n = 0 # 获取分页里面帖子链接列表,获取每个帖子里楼主所发的图片链接列表,保存图片 # 获取帖子链接列表 for page in range(int(startpage),int(endpage)+1): pnumber = {'pn': str((page - 1)*50)} pnumber = urllib.urlencode(pnumber) fullurl = url + '&' + pnumber # 发现使用谷歌浏览器的User-Agent,会导致后面的xpath匹配结果有时为空。原因:服务器会对不同的浏览器发出的同一请求返回不同格式的数据,此时返回的数据和在谷歌浏览器里面看到的数据不同。 # 解决办法:使用IE浏览器的User-Agent,因为IE的相对来说更标准,而且版本越老问题越少。 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"} request = urllib2.Request(fullurl,headers=headers) response = urllib2.urlopen(request) html = response.read() # 解析html 为 HTML DOM文档 content = etree.HTML(html) # xpath使用下面括号内容进行匹配,使用a的属性使用了class='j_th_tit'去过滤广告则匹配结果为空;换成a的属性rel="noreferrer"就解决。为啥换不清楚。思路,这个属性不行换个属性。 # 获取每个分页里面的帖子的链接列表 link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href') # 获取该帖子楼主所发的图片链接列表 for link in link_list: link = 'https://tieba.baidu.com' + link request2 = urllib2.Request(link,headers=headers) response2 = urllib2.urlopen(request2) html2 = response2.read() # 把html字符串解析为html dom content2 = etree.HTML(html2) # 使用xpath匹配其里面层主所发的图片的链接 link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src') # 遍历图片链接列表,保存图片到文件夹images内 for link2 in link_list2: request3 = urllib2.Request(link2,headers=headers) response3 = urllib2.urlopen(request3) html3 = response3.read() # 指定文件名 filename = link2[-10:] n += 1 print('正在保存第 %3d 张图片'%n) # html3为返回的图片内容,把图片写入images2文件夹内 with open('images' + '/' + filename,'wb') as f: f.write(html3) print('下载结束!')
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍Python爬虫:通过关键字爬取百度图片,包括了Python爬虫:通过关键字爬取百度图片的使用技巧和注意事项,需要的朋友参考一下 使用工具:Python2.7 点我下载 scrapy框架 sublime text3 一。搭建python(Windows版本) 1.安装python2.7 ---然后在cmd当中输入python,界面如下则安装成功 2.集成Scrapy框架----输
本文向大家介绍Python实现爬取百度贴吧帖子所有楼层图片的爬虫示例,包括了Python实现爬取百度贴吧帖子所有楼层图片的爬虫示例的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现爬取百度贴吧帖子所有楼层图片的爬虫。分享给大家供大家参考,具体如下: 下载百度贴吧帖子图片,好好看 python2.7版本: PS:这里再为大家提供2款非常方便的正则表达式工具供大家参考使用: Ja
本文向大家介绍零基础写python爬虫之抓取百度贴吧代码分享,包括了零基础写python爬虫之抓取百度贴吧代码分享的使用技巧和注意事项,需要的朋友参考一下 这里就不给大家废话了,直接上代码,代码的解释都在注释里面,看不懂的也别来问我,好好学学基础知识去! 以上就是python抓取百度贴吧的一段简单的代码,非常的实用吧,各位可以自行扩展下。
主要内容:判断页面类型,寻找URL变化规律,编写爬虫程序,爬虫程序结构,爬虫程序随机休眠本节继续讲解 Python 爬虫实战案例:抓取百度贴吧( https://tieba.baidu.com/)页面,比如 Python爬虫吧、编程吧,只抓取贴吧的前 5 个页面即可。本节我们将使用面向对象的编程方法来编写程序。 判断页面类型 通过简单的分析可以得知,待抓取的百度贴吧页面属于静态网页,分析方法非常简单:打开百度贴吧,搜索“Python爬虫”,在出现的页面中复制任意一段信息,比如“爬虫需
本文向大家介绍Python爬虫抓取指定网页图片代码实例,包括了Python爬虫抓取指定网页图片代码实例的使用技巧和注意事项,需要的朋友参考一下 想要爬取指定网页中的图片主要需要以下三个步骤: (1)指定网站链接,抓取该网站的源代码(如果使用google浏览器就是按下鼠标右键 -> Inspect-> Elements 中的 html 内容) (2)根据你要抓取的内容设置正则表达式以匹配要抓取的内容
本文向大家介绍利用Python2下载单张图片与爬取网页图片实例代码,包括了利用Python2下载单张图片与爬取网页图片实例代码的使用技巧和注意事项,需要的朋友参考一下 前言 一直想好好学习一下Python爬虫,之前断断续续的把Python基础学了一下,悲剧的是学的没有忘的快。只能再次拿出来滤了一遍,趁热打铁,通过实例来实践下,下面这篇文章主要介绍了关于Python2下载单张图片与爬取网页的相关内容