本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励
在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie
爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0
#-*- coding:utf-8 -*- import urllib2 import re import requests from lxml import etree 这些是要导入的库,代码并没有使用正则,使用的是xpath,正则困难的童鞋可以尝试使用下 推荐各位先使用基本库来写,这样可以学习到更多 links=[] #遍历url的地址 k=1 print u'请输入最后的页数:' endPage=int(raw_input()) #最终的页数 (r'\d+(?=\s*页) 这是一个比较通用的正则抓取总页数的代码,当然最后要group #这里是手动输入页数,避免内容太多 for j in range(0,endPage): url='http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn='+str(j) #页数的url地址 html=urllib2.urlopen(url).read() #读取首页的内容 selector=etree.HTML(html) #转换为xml,用于在接下来识别 links=selector.xpath('//div/a[@class="j_th_tit"]/@href') #抓取当前页面的所有帖子的url #大家可以使用浏览器自带的源码查看工具,在指定目标处查看元素,这样更快捷 for i in links: url1="http://tieba.baidu.com"+i #因为爬取到的地址是相对地址,所以要加上百度的domain html2=urllib2.urlopen(url1).read() #读取当前页面的内容 selector=etree.HTML(html2) #转换为xml用于识别 link=selector.xpath('//img[@class="BDE_Image"]/@src') #抓取图片,各位也可以更换为正则,或者其他你想要的内容 #此处就是遍历下载 for each in link: #print each print u'正在下载%d'%k fp=open('image/'+str(k)+'.bmp','wb') #下载在当前目录下 image文件夹内,图片格式为bmp image1=urllib2.urlopen(each).read() #读取图片的内容 fp.write(image1) #写入图片 fp.close() k+=1 #k就是文件的名字,每下载一个文件就加1 print u'下载完成!'
如果想要爬取其他站点的内容,大家可以参考一下
本文向大家介绍Python制作爬虫抓取美女图,包括了Python制作爬虫抓取美女图的使用技巧和注意事项,需要的朋友参考一下 作为一个新世纪有思想有文化有道德时刻准备着的屌丝男青年,在现在这样一个社会中,心疼我大慢播抵制大百度的前提下,没事儿上上网逛逛YY看看斗鱼翻翻美女图片那是必不可少的,可是美图虽多翻页费劲!今天我们就搞个爬虫把美图都给扒下来!本次实例有2个:煎蛋上的妹子图,某网站的rosi
本文向大家介绍python制作花瓣网美女图片爬虫,包括了python制作花瓣网美女图片爬虫的使用技巧和注意事项,需要的朋友参考一下 花瓣图片的加载使用了延迟加载的技术,源代码只能下载20多张图片,修改后基本能下载所有的了,只是速度有点慢,后面再优化下
本文向大家介绍Python爬虫实现百度图片自动下载,包括了Python爬虫实现百度图片自动下载的使用技巧和注意事项,需要的朋友参考一下 制作爬虫的步骤 制作一个爬虫一般分以下几个步骤: 分析需求分析网页源代码,配合开发者工具编写正则表达式或者XPath表达式正式编写 python 爬虫代码 效果预览 运行效果如下: 存放图片的文件夹: 需求分析 我们的爬虫至少要实现两个功能:一是搜索图片,二是自动
本文向大家介绍python爬虫入门教程之点点美女图片爬虫代码分享,包括了python爬虫入门教程之点点美女图片爬虫代码分享的使用技巧和注意事项,需要的朋友参考一下 继续鼓捣爬虫,今天贴出一个代码,爬取点点网「美女」标签下的图片,原图。 使用方法:新建一个文件夹,把代码保存为name.py文件,运行python name.py就可以把图片下载到文件夹。
本文向大家介绍Python无头爬虫下载文件的实现,包括了Python无头爬虫下载文件的实现的使用技巧和注意事项,需要的朋友参考一下 有些页面并不能直接用requests获取到内容,会动态执行一些js代码生成内容。这个文章主要是对付那些特殊页面的,比如必须要进行js调用才能下载的情况。 安装chrome 安装chromedriver 淘宝源(推荐) 感谢这篇博客 上述步骤可以选择适合自己的版本下
本文向大家介绍nodejs制作爬虫实现批量下载图片,包括了nodejs制作爬虫实现批量下载图片的使用技巧和注意事项,需要的朋友参考一下 今天想获取一大批猫的图片,然后就在360流浪器搜索框中输入 猫 ,然后点击图片。就看到了一大波猫的图片: http://image.so.com/i?q=%E7%8... ,我在想啊,要是审查元素,一张张手动下载,多麻烦,所以打算写程序来实现。不写不知道,一写发现