本文实例讲述了python实现下载指定网址所有图片的方法。分享给大家供大家参考。具体实现方法如下:
#coding=utf-8 #download pictures of the url #useage: python downpicture.py www.baidu.com import os import sys from html.parser import HTMLParser from urllib.request import urlopen from urllib.parse import urlparse def getpicname(path): ''' retrive filename of url ''' if os.path.splitext(path)[1] == '': return None pr=urlparse(path) path='http://'+pr[1]+pr[2] return os.path.split(path)[1] def saveimgto(path, urls): ''' save img of url to local path ''' if not os.path.isdir(path): print('path is invalid') sys.exit() else: for url in urls: of=open(os.path.join(path, getpicname(url)), 'w+b') q=urlopen(url) of.write(q.read()) q.close() of.close() class myhtmlparser(HTMLParser): '''put all src of img into urls''' def __init__(self): HTMLParser.__init__(self) self.urls=list() self.num=0 def handle_starttag(self, tag, attr): if tag.lower() == 'img': srcs=[u[1] for u in attr if u[0].lower() == 'src'] self.urls.extend(srcs) self.num = self.num+1 if __name__ == '__main__': url=sys.argv[1] if not url.startswith('http://'): url='http://' + sys.argv[1] parseresult=urlparse(url) domain='http://' + parseresult[1] q=urlopen(url) content=q.read().decode('utf-8', 'ignore') q.close() myparser=myhtmlparser() myparser.feed(content) for u in myparser.urls: if (u.startswith('//')): myparser.urls[myparser.urls.index(u)]= 'http:'+u elif u.startswith('/'): myparser.urls[myparser.urls.index(u)]= domain+u saveimgto(r'D:\python\song', myparser.urls) print('num of download pictures is {}'.format(myparser.num))
运行结果如下:
num of download pictures is 19
希望本文所述对大家的Python程序设计有所帮助。
本文向大家介绍Python实现豆瓣图片下载的方法,包括了Python实现豆瓣图片下载的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现豆瓣图片下载的方法。分享给大家供大家参考。具体分析如下: 1 用 tk 封装一下 2 用户可以自己输入图片url 希望本文所述对大家的Python程序设计有所帮助。
本文向大家介绍Python实现批量下载图片的方法,包括了Python实现批量下载图片的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现批量下载图片的方法。分享给大家供大家参考。具体实现方法如下: 希望本文所述对大家的Python程序设计有所帮助。
本文向大家介绍php中使用gd库实现下载网页中所有图片,包括了php中使用gd库实现下载网页中所有图片的使用技巧和注意事项,需要的朋友参考一下 在前期的php教程就讲了php gd库可以实现远程图片的下载,但是那只是下载了一张图片,原理是一样的,要想下载一个网页的所有图片只要使用正则表达式进行判断,找出所有的图片url就可以进行循环下载了,我特地参照网络资源编写了gd库图片下载类! php代码如下
本文向大家介绍python实现爬虫下载美女图片,包括了python实现爬虫下载美女图片的使用技巧和注意事项,需要的朋友参考一下 本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励 在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie 爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-
本文向大家介绍vbs结合wget 实现下载网站图片,包括了vbs结合wget 实现下载网站图片的使用技巧和注意事项,需要的朋友参考一下 vbs 函数过程: 1. 调用wget: 下载网站所有页面到本脚本目录 …… 2. 扫描本脚本目录中所有文件 …… 3. 读取本脚本目录中的所有网页,匹配图片 URL 地址 …… 4. 保存所有图片 URL 地址到 url-img.txt 文件 …… 5. 调用w
本文向大家介绍Android sdcard实现图片存储 、联网下载,包括了Android sdcard实现图片存储 、联网下载的使用技巧和注意事项,需要的朋友参考一下 本文实例介绍了sdcard存储图片下载简单操作,分享给大家供大家参考,具体内容如下 步骤 -- 在配置清单添加完联网权限后 1、res/layout界面布局 2、有2个类一个操作SDCARD的文件工具类(FileUtil)另外一个M