使用Selenium驱动chrome页面,获得淘宝信息并用BeautifulSoup分析得到结果。
使用Selenium时注意页面的加载判断,以及加载超时的异常处理。
import json import re from bs4 import BeautifulSoup from selenium import webdriver from selenium.common.exceptions import TimeoutException from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC browser = webdriver.Chrome() # 浏览器需要多次使用,所以单独拿出来。设置一个最长的等待时间,等待目标加载完成 wait = WebDriverWait(browser, 10) def search(keyword): # wait容易出现加载时间长的问题,因此用try来捕捉异常 try: browser.get('https://www.taobao.com') # 加载需要一定时间的,设置了等待时间,等待加载 # 输入按钮的加载等待 input = wait.until( # 设置加载目标,它是一个选择器,参数是需要选择方式和等待加载的内容 EC.presence_of_element_located((By.CSS_SELECTOR, "#q")) # 选择CSS选择器和选择内容 ) # 提交按钮 submit = wait.until( # EC后面是选择条件,按钮的加载条件最好的是element_to_be_clickable,意思为元素可以点击的 EC.element_to_be_clickable((By.CSS_SELECTOR, "#J_TSearchForm > div.search-button > button")) ) input.send_keys(keyword) # send_keys对输入框输入内容 submit.click() # 提交搜索内容,进入下一个页面 # 等待页码元素加载完成,并返回最大页码数 total = wait.until( EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.total")) ) # 等待加载完成后获取信息 get_products() return total.text except TimeoutException: # 超时后重新请求,因此递归调用 return search() def next_page(page_number): try: # 页码输入框和翻页按钮 input = wait.until( EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > input")) ) # 提交按钮 submit = wait.until( EC.element_to_be_clickable( (By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit")) ) input.clear() input.send_keys(page_number) submit.click() # 判断翻页成功 wait.until( EC.text_to_be_present_in_element((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > ul > li.item.active > span'), str(page_number))) get_products() except TimeoutException: return next_page(page_number) def get_products(): # 判断单个页面是否被加载出来 wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-itemlist .items .item'))) html = browser.page_source # 获取页面源代码,所有的 # 使用BS进行分析 soup = BeautifulSoup(html, 'lxml') items = soup.select('#mainsrp-itemlist .items .item') for item in items: image = item.select('.pic .img')[0]['data-src'] price = item.select('.price strong')[0].text deal = item.select('.deal-cnt')[0].text[:-3] title = item.select('.title')[0].text.strip() shop = item.select('.shop')[0].text.strip() location = item.select('.location')[0].text product = { 'image': image, 'price': price, 'deal': deal, 'title': title, 'shop': shop, 'location': location } save_text(product) # 下载内容 def save_text(product): # 保存为txt文件,a追加写模式,编码模式utf-8 with open('text.txt', 'a', encoding='utf-8') as f: # 使用JSON把字典转换为str格式,加换行符 f.write(json.dumps(product, ensure_ascii=False) + '\n') f.close() def main(): # 通过关键字在淘宝进行搜索 total = search('美食') # 用正则提取页码数字 total = int(re.compile('(\d+)').search(total).group(1)) # 翻页 for i in range(2, total+1): # 循环包含前,不包含尾 next_page(i) browser.close() if __name__ == '__main__': main()
更多内容请参考专题《python爬取功能汇总》进行学习。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
① 案例要求 使用Selenium爬取淘宝商品,指定关键字和指定页码信息来进行爬取 ② 案例分析: url地址:https://s.taobao.com/search?q=ipad ③ 具体代码实现 '''通过关键字爬取淘宝网站的信息数据''' from selenium import webdriver from selenium.common.exceptions import Timeout
本文向大家介绍python爬虫爬取淘宝商品信息,包括了python爬虫爬取淘宝商品信息的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了python爬取淘宝商品的具体代码,供大家参考,具体内容如下 效果图: 更多内容请参考专题《python爬取功能汇总》进行学习。 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持呐喊教程。
本文向大家介绍python爬取淘宝商品详情页数据,包括了python爬取淘宝商品详情页数据的使用技巧和注意事项,需要的朋友参考一下 在讲爬取淘宝详情页数据之前,先来介绍一款 Chrome 插件:Toggle JavaScript (它可以选择让网页是否显示 js 动态加载的内容),如下图所示: 当这个插件处于关闭状态时,待爬取的页面显示的数据如下: 当这个插件处于打开状态时,待爬取的页面显示的数据
本文向大家介绍简单的抓取淘宝图片的Python爬虫,包括了简单的抓取淘宝图片的Python爬虫的使用技巧和注意事项,需要的朋友参考一下 写了一个抓taobao图片的爬虫,全是用if,for,while写的,比较简陋,入门作品。 从网页http://mm.taobao.com/json/request_top_list.htm?type=0&page=中提取taobao模特的照片。 是不是很简单呢,
问题内容: 我正在尝试从“关键统计信息”页面中获取有关Yahoo中的代码的信息(因为Pandas库中不支持此功能)。 AAPL示例: 编辑:谢谢安迪! 问题:这正在打印一个空数组。如何更改退货? 问题答案: 好吧,返回的列表为空的原因是因为该数据是通过单独的调用生成的,仅通过向该URL发送请求就无法完成。如果浏览Chrome / Firefox上的“网络”标签并按XHR进行过滤,则通过检查每个网络
本文向大家介绍php爬取天猫和淘宝商品数据,包括了php爬取天猫和淘宝商品数据的使用技巧和注意事项,需要的朋友参考一下 一、思路 最近做了一个网站用到了从网址爬取天猫和淘宝的商品信息,首先看了下手机端的网页发现用的react,不太了解没法搞,所以就考虑从PC入口爬取数据,但是当爬取URL获取数据时并没有获取价格,库存等的信息,仔细研究了下发现是异步请求了另一个接口,但是接口要使用refer才能获取
数据采集是数据可视化分析的第一步,也是最基础的一步,数据采集的数量和质量越高,后面分析的准确的也就越高,我们来看一下淘宝网的数据该如何爬取。 淘宝网站是一个动态加载的网站,我们之前可以采用解析接口或者用Selenium自动化测试工具来爬取数据,但是现在淘宝对接口进行了加密,使我们很难分析出来其中的规律,同时淘宝也对Selenium进行了反爬限制,所以我们要换种思路来进行数据获取。
本文向大家介绍如何对淘宝搜索框进行测试相关面试题,主要包含被问及如何对淘宝搜索框进行测试时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 一, 功能测试 输入关键字,查看: 返回结果是否准确,返回的文本长度需限制 1.1输入可查到结果的正常关键字、词、语句,检索到的内容、链接正确性; 1.2输入不可查到结果的关键字、词、语句; 1.3输入一些特殊的内容,如空、特殊符、标点符、极限值等,可引入