动态页面的模拟点击:
以斗鱼直播为例:http://www.douyu.com/directory/all
爬取每页的房间名、直播类型、主播名称、在线人数等数据,然后模拟点击下一页,继续爬取
代码如下
#!/usr/bin/python3 # -*- coding:utf-8 -*- __author__ = 'mayi' """ 动态页面的模拟点击: 模拟点击斗鱼直播:http://www.douyu.com/directory/all 爬取每页房间名、直播类型、主播名称、在线人数等数据,然后模拟点击下一页,继续爬取 """ from selenium import webdriver import json # 调用环境变量指定的PhantomJS浏览器创建浏览器对象,executable_path:指定PhantomJS位置 driver = webdriver.PhantomJS(executable_path = r"D:\Program Files\phantomjs\bin\phantomjs") from bs4 import BeautifulSoup class DouyuSpider(object): """ 爬虫类 """ def __init__(self): self.url = "http://www.douyu.com/directory/all/" self.driver = webdriver.PhantomJS() self.file_name = open("douyu.json", "w", encoding = "utf-8") def run(self): """ 爬虫开始工作 """ self.driver.get(self.url) # 循环处理每一页,直至最后一页 page = 1 start_flag = True while True: # 等待3秒,防止访问过于频繁 self.driver.implicitly_wait(3) print("正在处理第" + page + "页......") page += 1 # 解析 soup = BeautifulSoup(self.driver.page_source, "lxml") # 在线直播部分 online_live = soup.find_all('ul', {'id': 'live-list-contentbox'})[0] # 房间列表 live_list = online_live.find_all('li') # 处理每一个房间 for live in live_list: # 房间名、直播类型、主播名称、在线人数 # 房间名 home_name = live.find_all('h3', {'class': 'ellipsis'})[0].get_text().strip() # 直播类型 live_type = live.find_all('span', {'class': 'tag ellipsis'})[0].get_text().strip() # 主播名称 anchor_name = live.find_all('span', {'class': 'dy-name ellipsis fl'})[0].get_text().strip() # 在线人数 online_num = live.find_all('span', {'class' :'dy-num fr'})[0].get_text().strip() # print(home_name, live_type, anchor_name, online_num) item = {} item["房间名"] = home_name item["直播类型"] = live_type item["主播名称"] = anchor_name item["在线人数"] = online_num if start_flag: start_flag = False content = "[\n" + json.dumps(item) else: content = ",\n" + json.dumps(item) self.file_name.write(content) # page_source.find()未找到内容则返回-1 if self.driver.page_source.find('shark-pager-disable-next') != -1: # 已到最后一页 break # 模拟点击下一页 self.driver.find_element_by_class_name('shark-pager-next').click() # 爬虫结束前关闭文件 self.file_name.write("\n]") self.file_name.close() if __name__ == '__main__': douyu = DouyuSpider() douyu.run()
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
爬取斗鱼直播平台的所有房间信息: #!/usr/bin/env python # -*- coding:utf-8 -*- # python的测试模块 import unittest from selenium import webdriver from bs4 importBeautifulSoup class douyuSelenium(unittest.TestCase)
本文向大家介绍python模拟点击网页按钮实现方法,包括了python模拟点击网页按钮实现方法的使用技巧和注意事项,需要的朋友参考一下 python怎么模拟点击网页按钮 前提环境: Python3 和 Visual Studio Code安装完毕 安装selenium : 在终端输入: pip install selenium, 如图 下载chromedriver : 登录http://chrom
本文向大家介绍基python实现多线程网页爬虫,包括了基python实现多线程网页爬虫的使用技巧和注意事项,需要的朋友参考一下 一般来说,使用线程有两种模式, 一种是创建线程要执行的函数, 把这个函数传递进Thread对象里,让它来执行. 另一种是直接从Thread继承,创建一个新的class,把线程执行的代码放到这个新的class里。 实现多线程网页爬虫,采用了多线程和锁机制,实现了广度优先算法
本文向大家介绍Android利用爬虫实现模拟登录的实现实例,包括了Android利用爬虫实现模拟登录的实现实例的使用技巧和注意事项,需要的朋友参考一下 Android利用爬虫实现模拟登录的实现实例 为了用手机登录校网时不用一遍一遍的输入账号密码,于是决定用爬虫抓取学校登录界面,然后模拟填写本次保存的账号、密码,模拟点击登录按钮。实现过程折腾好几个。 一开始选择的是htmlunit解析登录界面htm
本文向大家介绍基于C#实现网页爬虫,包括了基于C#实现网页爬虫的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了基于C#实现网页爬虫的详细代码,供大家参考,具体内容如下 HTTP请求工具类: 功能: 1、获取网页html 2、下载网络图片 多线程爬取网页代码: 截图: 以上就是本文的全部内容,希望对大家的学习有所帮助。
问题内容: 假设我有一个要模拟特定x,y坐标处的鼠标单击的窗口。我已经有了hwnd,但不确定如何构造lParam。我过去曾使用过SendMessage来单击按钮等,但是我知道他们的名字。任何帮助将不胜感激。我也忍不住想知道我是否正在以正确的方式进行操作。我的最终目标是在Skype主窗口上单击某个用户(例如)。我使用EnumChildWindows查找主窗口的所有子级,但找不到正确的子级。所以想通了