我正在学习Python,并尝试在下拉菜单上将该页面抓取为特定值。之后,我需要单击结果表上的每个项目以检索特定信息。我可以选择该项目并在网络驱动程序上检索信息。但是我不知道如何将响应URL传递给crawlspider。
driver = webdriver.Firefox()
driver.get('http://www.cppcc.gov.cn/CMS/icms/project1/cppcc/wylibary/wjWeiYuanList.jsp')
more_btn = WebDriverWait(driver, 20).until(
EC.visibility_of_element_located((By.ID, '_button_select'))
)
more_btn.click()
## select specific value from the dropdown
driver.find_element_by_css_selector("select#tabJcwyxt_jiebie > option[value='teyaoxgrs']").click()
driver.find_element_by_css_selector("select#tabJcwyxt_jieci > option[value='d11jie']").click()
search2 = driver.find_element_by_class_name('input_a2')
search2.click()
time.sleep(5)
## convert html to "nice format"
text_html=driver.page_source.encode('utf-8')
html_str=str(text_html)
## this is a hack that initiates a "TextResponse" object (taken from the Scrapy module)
resp_for_scrapy=TextResponse('none',200,{},html_str,[],None)
## convert html to "nice format"
text_html=driver.page_source.encode('utf-8')
html_str=str(text_html)
resp_for_scrapy=TextResponse('none',200,{},html_str,[],None)
这就是我被困住的地方。我能够使用上面的代码进行查询。但是,如何将 resp_for_scrapy 传递给 crawlspider ?我把
resp_for_scrapy 代替了 item, 但这 没用 。
## spider
class ProfileSpider(CrawlSpider):
name = 'pccprofile2'
allowed_domains = ['cppcc.gov.cn']
start_urls = ['http://www.cppcc.gov.cn/CMS/icms/project1/cppcc/wylibary/wjWeiYuanList.jsp']
def parse(self, resp_for_scrapy):
hxs = HtmlXPathSelector(resp_for_scrapy)
for post in resp_for_scrapy.xpath('//div[@class="table"]//ul//li'):
items = []
item = Ppcprofile2Item()
item ["name"] = hxs.select("//h1/text()").extract()
item ["title"] = hxs.select("//div[@id='contentbody']//tr//td//text()").extract()
items.append(item)
##click next page
while True:
next = self.driver.findElement(By.linkText("下一页"))
try:
next.click()
except:
break
return(items)
任何建议将不胜感激!!!!
编辑 我在蜘蛛类之前包括了一个中间件类,可以从下拉菜单中进行选择。但是现在没有错误,也没有结果。
class JSMiddleware(object):
def process_request(self, request, spider):
driver = webdriver.PhantomJS()
driver.get('http://www.cppcc.gov.cn/CMS/icms/project1/cppcc/wylibary/wjWeiYuanList.jsp')
# select from the dropdown
more_btn = WebDriverWait(driver, 20).until(
EC.visibility_of_element_located((By.ID, '_button_select'))
)
more_btn.click()
driver.find_element_by_css_selector("select#tabJcwyxt_jiebie > option[value='teyaoxgrs']").click()
driver.find_element_by_css_selector("select#tabJcwyxt_jieci > option[value='d11jie']").click()
search2 = driver.find_element_by_class_name('input_a2')
search2.click()
time.sleep(5)
#get the response
body = driver.page_source
return HtmlResponse(driver.current_url, body=body, encoding='utf-8', request=request)
class ProfileSpider(CrawlSpider):
name = 'pccprofile2'
rules = [Rule(SgmlLinkExtractor(allow=(),restrict_xpaths=("//div[@class='table']")), callback='parse_item')]
def parse_item(self, response):
hxs = HtmlXPathSelector(response)
items = []
item = Ppcprofile2Item()
item ["name"] = hxs.select("//h1/text()").extract()
item ["title"] = hxs.select("//div[@id='contentbody']//tr//td//text()").extract()
items.append(item)
#click next page
while True:
next = response.findElement(By.linkText("下一页"))
try:
next.click()
except:
break
return(items)
在使用Scrapy定期处理硒所需的页面 之前, 请使用Downloader
Middleware
捕获硒所需的页面: __
下载器中间件是一个挂钩Scrapy的请求/响应处理的框架。这是一个轻量级的低级系统,用于全局更改Scrapy的请求和响应。
这是一个使用PhantomJS的非常基本的示例:
from scrapy.http import HtmlResponse
from selenium import webdriver
class JSMiddleware(object):
def process_request(self, request, spider):
driver = webdriver.PhantomJS()
driver.get(request.url)
body = driver.page_source
return HtmlResponse(driver.current_url, body=body, encoding='utf-8', request=request)
一旦返回HtmlResponse
(或者TextResponse
如果您真正想要的是),Scrapy将停止处理下载程序,并使用Spider的parse
方法:
如果它返回一个Response对象,那么Scrapy不会费心调用任何其他process_request()或process_exception()方法或适当的下载函数;它将返回该响应。始终在每个响应上调用已安装中间件的process_response()方法。
在这种情况下,parse
除了页面上的JS已被执行之外,您可以继续像使用HTML一样继续使用Spider的方法。
提示:由于Downloader
Middleware的process_request
方法接受Spider作为参数,因此您可以在Spider中添加一个条件来检查是否需要处理JS,这将使您能够以完全相同的方式处理JS和非JS页面蜘蛛类。
问题内容: 我正在学习Python,并尝试在下拉菜单上将该页面抓取为特定值。之后,我需要单击结果表上的每个项目以检索特定信息。我可以选择该项目并在网络驱动程序上检索信息。但是我不知道如何将响应URL传递给crawlspider。 这就是我被困住的地方。我能够使用上面的代码进行查询。但是,如何将 resp_for_scrapy 传递给 crawlspider ?我把 resp_for_scrapy
问题内容: 我可以选择该项目并在Webdriver上检索信息。但是我不知道如何将响应URL传递给crawlspider。 所以这就是我被困住的地方。我能够使用上面的代码进行查询。但是,如何将resp_for_scrapy传递给crawlspider?我把resp_for_scrapy代替了item,但这没用。 任何建议将不胜感激!!!! 编辑我包括一个中间件类,可从Spider类之前的下拉列表中进
问题内容: 好吧,我在我的烧瓶应用程序中有这个: 现在,如果我像这样调用它: 它吐出“找不到URL” …这是我在做什么错? 问题答案: 第一条路径描述了一个URL,并将值作为URL的一部分。第二个网址描述的路由没有变量,但网址中带有查询参数。 如果您使用的是第一条路线,则网址应类似于。 如果您使用的是第二个url,则路由应类似于,函数应为,值应从读取。 通常,路由应描述应始终存在的所有参数,并且表
mainactivity.java MyWebPage.java
我有一个APIhttp://studentresults.com/studentresults?studentname=xyz 通过上面的url,我得到了考试当天学生姓名的信息。我可以通过使用node js解析url来获取单个学生的信息。现在我有15个学生。如何获取考试当天的所有信息,以便创建 在上面的url中,通过改变学生的名字,我们得到一个学生的详细信息。如果我需要得到所有的学生的详细信息,如
问题内容: 我需要Selenium才能完成javascript工作。 首先,我使用Scrapy登录,然后需要使用Selenium 打开。 问题在于Selenium没有cookie,因此它打开了登录页面。 有谁知道我该如何从曲奇到selenium传递曲奇? 问题答案: 由于您到目前为止还没有提供您编写的任何代码,因此我仅介绍您。 为了从Scrapy获取cookie,请查看和方法 为了设置硒驱动程序的