我使用python Selenium和Scrapy爬行网站。
但是我的剧本太慢了
Crawled 1 pages (at 1 pages/min)
我使用CSS SELECTOR而不是XPATH来优化时间。我改变了中间件
'tutorial.middlewares.MyCustomDownloaderMiddleware': 543,
是selenium太慢还是我应该在“设置”中更改某些内容?
我的代码:
def start_requests(self):
yield Request(self.start_urls, callback=self.parse)
def parse(self, response):
display = Display(visible=0, size=(800, 600))
display.start()
driver = webdriver.Firefox()
driver.get("http://www.example.com")
inputElement = driver.find_element_by_name("OneLineCustomerAddress")
inputElement.send_keys("75018")
inputElement.submit()
catNums = driver.find_elements_by_css_selector("html body div#page div#main.content div#sContener div#menuV div#mvNav nav div.mvNav.bcU div.mvNavLk form.jsExpSCCategories ul.mvSrcLk li")
#INIT
driver.find_element_by_css_selector(".mvSrcLk>li:nth-child(1)>label.mvNavSel.mvNavLvl1").click()
for catNumber in xrange(1,len(catNums)+1):
print "\n IN catnumber \n"
driver.find_element_by_css_selector("ul#catMenu.mvSrcLk> li:nth-child(%s)> label.mvNavLvl1" % catNumber).click()
time.sleep(5)
self.parse_articles(driver)
pages = driver.find_elements_by_xpath('//*[@class="pg"]/ul/li[last()]/a')
if(pages):
page = driver.find_element_by_xpath('//*[@class="pg"]/ul/li[last()]/a')
checkText = (page.text).strip()
if(len(checkText) > 0):
pageNums = int(page.text)
pageNums = pageNums - 1
for pageNumbers in range (pageNums):
WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.ID, "waitingOverlay")))
driver.find_element_by_css_selector('.jsNxtPage.pgNext').click()
self.parse_articles(driver)
time.sleep(5)
def parse_articles(self,driver) :
test = driver.find_elements_by_css_selector('html body div#page div#main.content div#sContener div#sContent div#lpContent.jsTab ul#lpBloc li div.prdtBloc p.prdtBDesc strong.prdtBCat')
def between(self, value, a, b):
pos_a = value.find(a)
if pos_a == -1: return ""
pos_b = value.rfind(b)
if pos_b == -1: return ""
adjusted_pos_a = pos_a + len(a)
if adjusted_pos_a >= pos_b: return ""
return value[adjusted_pos_a:pos_b]
因此,您的代码在这里几乎没有缺陷。
这可以通过使用scrapy’s很好地解决Downloader middlewares
。您想创建一个自定义的下载器中间件,该中间件将使用硒而不是scrapy下载器下载请求。
例如我用这个:
# middlewares.py
class SeleniumDownloader(object):
def create_driver(self):
"""only start the driver if middleware is ever called"""
if not getattr(self, 'driver', None):
self.driver = webdriver.Chrome()
def process_request(self, request, spider):
# this is called for every request, but we don't want to render
# every request in selenium, so use meta key for those we do want.
if not request.meta.get('selenium', False):
return request
self.create_driver()
self.driver.get(request.url)
return HtmlResponse(request.url, body=self.driver.page_source, encoding='utf-8')
激活您的中间件:
# settings.py
DOWNLOADER_MIDDLEWARES = {
'myproject.middleware.SeleniumDownloader': 13,
}
然后,在您的Spider中,您可以通过添加meta参数来指定要通过selenium驱动程序下载的URL。
# you can start with selenium
def start_requests(self):
for url in self.start_urls:
yield scrapy.Request(url, meta={'selenium': True})
def parse(self, response):
# this response is rendered by selenium!
# also can use no selenium for another response if you wish
url = response.xpath("//a/@href")
yield scrapy.Request(url)
这种方法的优点是您的驱动程序仅启动一次,仅用于下载页面源代码,其余的则留给适当的异步刮刮工具使用。
缺点是您无法单击周围的按钮,因为您没有被驱动程序暴露。大多数时候,您可以通过网络检查器对按钮的功能进行逆向工程,而您根本不需要对驱动程序本身进行任何单击。
问题内容: 这是我从Selenium WebElement获得价值的测试代码。 结果就是这样,这需要很长时间。我想快点。 1.跳过一些元素 如果价值不是我想要的。跳过以(继续)获得另一个获取值。 2.通过xpath过滤 此示例获取所有元素(// *)。因此,当我得到它时,我过滤了元素,这是个好方法。但是我仍然有几百个要素,我需要最小化处理时间。 3,多线程 我测试了Runnable Callabl
问题内容: 我想优化此代码: 事情是,我不知道如何读取bufferedReader的内容并将其复制到String中,比我上面的速度更快。我需要花费尽可能少的时间。谢谢 问题答案: 在循环中使用字符串连接是 在 经典的性能杀手(因为字符串是不可变的,整个越来越大的字符串被复制为每个连接)。改为这样做:
问题内容: 我目前正在使用PhotoImage和tkinter逐像素绘制Mandelbrot集。我基本上是直接使用没有修改的算法。有没有使计算更快的方法?也许快速填充大面积的颜色,或者预先计算常数? 部分代码: 问题答案: 一次设置一个像素可能是减速的主要来源。而不是为每个像素调用put,而是计算整个像素行或整个像素矩阵,然后在循环结束时调用一次。 您可以在其他位置找到示例:https : //w
我目前正在用PhotoImage和tkinter逐像素绘制Mandelbrot集。我基本上是直接使用算法,没有任何修改。有没有方法可以加快计算速度?也许快速填充大面积的颜色,或者预先计算常数? 守则的一部分:
问题内容: 不久前我问过类似的问题。有人问我怎样才能变成这样的数组: 对此: 但是现在我想把相同的数组变成这个: 假设所有子数组具有相同的长度。 如果您尚未注意到,结果中的前三项就是这三个子数组中的第一项。结果中的第四,第五和第六项是每个子数组的第二项。 如果您仍然不了解,也许这会有所帮助: 原始数组: 结果: 此刻,我有这个: 我认为那不是很花钱。如何快速进行此操作? 为了避免成为XY问题,这就
问题内容: 如何在集合视图中快速创建页眉和页脚? 我正在尝试将页眉和页脚组合在一起,但是它一直崩溃,我找不到快速的教程来理解它。 我不怎么为两个人返回补充性观点,而只是返回一个。 我将它们都放在情节提要上(类+标识符) 错误: 标识符为1的UICollectionElementKindCell-必须为该标识符注册一个笔尖或一个类,或在情节提要中连接原型单元。 希望有人能帮上忙。 问题答案: 您可以