我正在使用Python 2.7 + BeautifulSoup 4.3.2。
我正在尝试使用Python和BeautifulSoup在网页上获取信息。因为该网页位于公司网站中,并且需要登录和重定向,所以我将目标页面的源代码页面复制到一个文件中,并将其另存为C:\中的“
example.html”,以方便练习。
这是原始代码的一部分:
<tr class="ghj">
<td><span class="city-sh"><sh src="./citys/1.jpg" alt="boy" title="boy" /></span><a href="./membercity.php?mode=view&u=12563">port_new_cape</a></td>
<td class="position"><a href="./search.php?id=12563&sr=positions" title="Search positions">452</a></td>
<td class="details"><div>South</div></td>
<td>May 09, 1997</td>
<td>Jan 23, 2009 12:05 pm </td>
</tr>
到目前为止,我得出的代码是:
from bs4 import BeautifulSoup
import re
import urllib2
url = "C:\example.html"
page = urllib2.urlopen(url)
soup = BeautifulSoup(page.read())
cities = soup.find_all('span', {'class' : 'city-sh'})
for city in cities:
print city
这只是测试的第一步,因此有些不完整。
但是,当我运行它时,它会显示一条错误消息。似乎不适合urllib2.urlopen
用来打开本地文件。
Traceback (most recent call last):
File "C:\Python27\Testing.py", line 8, in <module>
page = urllib2.urlopen(url)
File "C:\Python27\lib\urllib2.py", line 127, in urlopen
return _opener.open(url, data, timeout)
File "C:\Python27\lib\urllib2.py", line 404, in open
response = self._open(req, data)
File "C:\Python27\lib\urllib2.py", line 427, in _open
'unknown_open', req)
File "C:\Python27\lib\urllib2.py", line 382, in _call_chain
result = func(*args)
File "C:\Python27\lib\urllib2.py", line 1247, in unknown_open
raise URLError('unknown url type: %s' % type)
URLError: <urlopen error unknown url type: c>
如何练习使用本地文件?
在钱丹的帮助下,问题已得到解决。所有的功劳都归于他。:)
“ urllib2.url”在这里没有用。
from bs4 import BeautifulSoup
import re
# import urllib2
url = "C:\example.html"
page = open(url)
soup = BeautifulSoup(page.read())
cities = soup.find_all('span', {'class' : 'city-sh'})
for city in cities:
print city
本文向大家介绍python抓取网页中图片并保存到本地,包括了python抓取网页中图片并保存到本地的使用技巧和注意事项,需要的朋友参考一下 在上篇文章给大家分享PHP源码批量抓取远程网页图片并保存到本地的实现方法,感兴趣的朋友可以点击了解详情。 通过Python抓取指定Url中的图片保存至本地 以上代码是小编给大家介绍的python抓取网页中图片并保存到本地的全部内容,希望大家喜欢。
本文向大家介绍python保存网页图片到本地的方法,包括了python保存网页图片到本地的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了python保存网页图片到本地的具体代码,供大家参考,具体内容如下 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持呐喊教程。
问题内容: 假设我有一个如下所示的javascript对象: 我将其字符串化以转换为JSON。如何将此JSON保存到本地文本文件,以便可以在记事本等中打开它。 问题答案: Node.js: 浏览器(webapi):
问题内容: 我已经阅读了很多有关Web抓取的答案,这些答案涉及BeautifulSoup,Scrapy等执行Web抓取的问题。 有没有办法从网络浏览器中保存页面的源代码呢? 也就是说,Python中是否有一种方法可以将其指向网站,并使其仅使用标准Python模块将页面的源代码保存到文本文件中? 这是我去的地方: 我知道的不多-但是正在寻找代码来实际提取页面的源代码,以便可以编写它。我收集到urlo
问题内容: 基本上,我想使用来严格抓取网页上的可见文本。例如,此网页是我的测试用例。我主要想获取正文文本(文章),甚至在这里和那里甚至几个标签名称。我已经尝试过在这个SO问题中返回不想要的标签和html注释的建议。我无法弄清楚该函数所需的参数,以便仅获取网页上的可见文本。 那么,我应该如何查找除脚本,注释,CSS等之外的所有可见文本? 问题答案: 尝试这个:
问题内容: 我为python 2.7使用了selenium网络驱动程序: 启动浏览器:。 转到一些网址:。 此时,如何向浏览器发送“另存为”命令? 注意:这不是我感兴趣的网页源。我想使用实际的“将页面另存为” Firefox命令来保存页面,该命令所产生的结果与保存网页源不同。 问题答案: 不幸的是,您无法使用Selenium做您想做的事。您可以使用page_source来获取html,但这就是您将