本文实例讲述了Python爬虫爬取、解析数据操作。分享给大家供大家参考,具体如下:
爬虫 当当网 http://search.dangdang.com/?key=python&act=input&page_index=1
引用相关库
import requests import re import csv import pymysql from bs4 import BeautifulSoup from lxml import etree import lxml from lxml import html
类代码实现部分
class DDSpider(object): #对象属性 参数 关键字 页数 def __init__(self,key='python',page=1): self.url = 'http://search.dangdang.com/?key='+key+'&act=input&page_index={}' self.page = page self.headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36'} #私有对象方法 def __my_url(self): my_url = [] if self.page < 1: my_page = 2 else: my_page = self.page+1 #循环遍历每一页 for i in range(1,my_page): my_url.append(self.url.format(i)) return my_url #私有对象方法 请求数据 def __my_request(self,url,parser_type): #循环遍历每一页 response = requests.get(url=url,headers=self.headers) if response.status_code == 200: return self.__my_parser(response.text,parser_type) else: return None #私有对象方法 解析数据 1 利用正则 2 bs4 3 xpath def __my_parser(self,html,my_type=1): if my_type == 1: pattern = re.compile('<p.*?class=[\'\"]name[\'\"].*?name=[\'\"]title[\'\"].*?<a.*?title=[\'\"](.*?)[\'\"].*?href=[\'\"](.*?)[\'\"].*?name=[\'\"]itemlist-title[\'\"].*?<p class=[\'\"]detail[\'\"].*?>(.*?)</p>.*?<span.*?class=[\'\"]search_now_price[\'\"].*?>(.*?)</span>.*?<p.*?class=[\'\"]search_book_author[\'\"].*?><span>.*?<a.*?name=[\'\"]itemlist-author[\'\"].*?title=[\'\"](.*?)[\'\"].*?</span>',re.S) result = re.findall(pattern,html) elif my_type == 2: soup = BeautifulSoup(html,'lxml') result = [] title_url = soup.find_all('a',attrs={'name':'itemlist-title'}) for i in range(0,len(title_url)): title = soup.find_all('a',attrs={'name':'itemlist-title'})[i].attrs['title'] url = soup.find_all('a',attrs={'name':'itemlist-title'})[i].attrs['href'] price = soup.find_all('span',attrs={'class':'search_now_price'})[i].get_text() author = soup.find_all('a',attrs={'name':'itemlist-author'})[i].attrs['title'] desc = soup.find_all('p',attrs={'class':'detail'})[i].get_text() my_tuple = (title,url,desc,price,author) result.append(my_tuple) else: html = etree.HTML(html) li_all = html.xpath('//div[@id="search_nature_rg"]/ul/li') result = [] for i in range(len(li_all)): title = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="name"]/a/@title'.format(i+1)) url = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="name"]/a/@href'.format(i+1)) price = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]//span[@class="search_now_price"]/text()'.format(i+1)) author_num = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="search_book_author"]/span[1]/a'.format(i+1)) if len(author_num) != 0: #有作者 a标签 author = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="search_book_author"]/span[1]/a[1]/@title'.format(i+1)) else: #没有作者 a标签 author = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="search_book_author"]/span[1]/text()'.format(i+1)) desc = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="detail"]/text()'.format(i+1)) my_tuple = (" ".join(title)," ".join(url)," ".join(desc)," ".join(price)," ".join(author)) result.append(my_tuple) return result #私有对象方法 存储数据 1 txt 2 csv 3 mysql def __my_save(self,data,save_type=1): #循环遍历 for value in data: if save_type == 1: with open('ddw.txt','a+',encoding="utf-8") as f: f.write('【名称】:{}【作者】:{}【价格】:{}【简介】:{}【链接】:{}'.format(value[0],value[4],value[3],value[2],value[1])) elif save_type == 2: with open('ddw.csv','a+',newline='',encoding='utf-8-sig') as f: writer = csv.writer(f) #转化为列表 存储 writer.writerow(list(value)) else: conn = pymysql.connect(host='127.0.0.1',user='root',passwd='',db='',port=3306,charset='utf8') cursor = conn.cursor() sql = '' cursor.execute(sql) conn.commit() cursor.close() conn.close() #公有对象方法 执行所有爬虫操作 def my_run(self,parser_type=1,save_type=1): my_url = self.__my_url() for value in my_url: result = self.__my_request(value,parser_type) self.__my_save(result,save_type)
调用爬虫类实现数据获取
if __name__ == '__main__': #实例化创建对象 dd = DDSpider('python',0) #参数 解析方式 my_run(parser_type,save_type) # parser_type 1 利用正则 2 bs4 3 xpath #存储方式 save_type 1 txt 2 csv 3 mysql dd.my_run(2,1)
==总结一下: ==
1. 总体感觉正则表达式更简便一些 , 代码也会更简便 , 但是正则部分相对复杂和困难
2. bs4和xpath 需要对html代码有一定了解 , 取每条数据多个值时相对较繁琐
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
本文向大家介绍python爬虫爬取网页数据并解析数据,包括了python爬虫爬取网页数据并解析数据的使用技巧和注意事项,需要的朋友参考一下 1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序。 只要浏览器能够做的事情,原则上,爬虫都能够做到。 2.网络爬虫的功能 网络爬虫可以代替手工做很多事情,比如可以
本文向大家介绍Python爬虫爬取电影票房数据及图表展示操作示例,包括了Python爬虫爬取电影票房数据及图表展示操作示例的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python爬虫爬取电影票房数据及图表展示操作。分享给大家供大家参考,具体如下: 爬虫电影历史票房排行榜 http://www.cbooo.cn/BoxOffice/getInland?pIndex=1&t=0 Pytho
本文向大家介绍Python爬虫爬取杭州24时温度并展示操作示例,包括了Python爬虫爬取杭州24时温度并展示操作示例的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python爬虫爬取杭州24时温度并展示操作。分享给大家供大家参考,具体如下: 散点图 爬虫杭州今日24时温度 https://www.baidutianqi.com/today/58457.htm 利用正则表达式爬取杭州温度
本文向大家介绍python爬虫beautifulsoup库使用操作教程全解(python爬虫基础入门),包括了python爬虫beautifulsoup库使用操作教程全解(python爬虫基础入门)的使用技巧和注意事项,需要的朋友参考一下 【python爬虫基础入门】系列是对python爬虫的一个入门练习实践,旨在用最浅显易懂的语言,总结最明了,最适合自己的方法,本人一直坚信,总结才会使人提高 1
本文向大家介绍Nodejs实现爬虫抓取数据实例解析,包括了Nodejs实现爬虫抓取数据实例解析的使用技巧和注意事项,需要的朋友参考一下 开始之前请先确保自己安装了Node.js环境,如果没有安装,大家可以到呐喊教程下载安装。 1.在项目文件夹安装两个必须的依赖包 superagent 是一个轻量的,渐进式的ajax api,可读性好,学习曲线低,内部依赖nodejs原生的请求api,适用于node
本文向大家介绍Python爬虫爬取新闻资讯案例详解,包括了Python爬虫爬取新闻资讯案例详解的使用技巧和注意事项,需要的朋友参考一下 前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 一个简单的Python资讯采集案例,列表页到详情页,到数据保存,保存为txt文档,网站网页结构算是比较规整,简单清晰明了,资讯新闻内容的采