使用脚本进行下载的需求很常见,可以是常规文件、web页面、Amazon S3和其他资源。Python 提供了很多模块从 web 下载文件。下面介绍
requests 模块是模仿网页请求的形式从一个URL下载文件
示例代码:
import requests url = 'xxxxxxxx' # 目标下载链接 r = requests.get(url) # 发送请求 # 保存 with open ('r.txt', 'rb') as f: f.write(r.content) f.close
爬虫请求库——requests的使用
安装 wget 库
pip install wget
示例代码
import wget url = 'https://pic.cnblogs.com/avatar/1197773/20170712160655.png' # 目标路由,下载的资源是图片 path = 'D:/x.png' # 保存的路径 wget.download(url, path) # 下载
有些 URL 会被重定向到另一个 URL,后者是真正的下载链接。很多软件的下载其实都是这样的形式。URL看起来如下
https://readthedocs.org/projects/python-guide/downloads/pdf/latest
重定向的 URL 也可以用 requests 库进行下载,只需加一个参数就可以
import requests url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest' # allow_redirect参数True表示允许重定向 r = requests.get(url, allow_redirect=True) with open('r.txt', 'wb') as f: f.write(r) f.close()
有些文件非常的大,如果我们直接下载,可能会因为事件原因或者网络原因造成下载失败,这时候我可以使用分块下载的形式进行下载。
requests 支持分块下载,只需要将 stream 设为True 即可
import requests url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest' # stream参数True表示分块下载 r = requests.get(url, stream=True) with open('r.txt', 'wb') as f: for ch in r: f.write(r) f.close()
多线程、多进程并发下载,大大提高下载速度
import requests from multiprocessing.poll import Pool # 定义下载函数 def url_response(url): path, url = url r = requests.get(url, stream=True) with open(path, 'wb') as f: for ch in r: f.write(ch) f.close() urls = ['aaa', 'bbb', 'ccc'] # 假设有好多个下载链接 # 排队下载的方式 for x in urls: url_response(x) # 并行下载的方式 ThreadPool(3).imap_unordered(url_response, urls)
使用进度条更直观的查看下载进度,这里使用 clint 模块实现进度条功能
pip install clint
下载
import requests from clint.textui import progess url = 'xxxxxxxxxxx' r = requests.get(url, stream=True) with open('x.txt', 'wb') as f total_length = int(r.headers.get('content-length')) for ch in progress.bar(r.iter_content(chunk_size=2391975, expected)size=(total_length/1024)+1)): if ch: f.write(ch) f.close()
其他使用进度条的案例:Python 实现进度条的六种方式
urllib库是Python的标准库,因此不需要安装它。
下载代码
urllib.request.urlretrieve(URL, PATH)
因为一些众所周知的原因我们下载国外的资源会非常的慢,这时候可以使用代理的方式进行下载
import requests # 定义代理,假设本机上有个梯子的服务,代理端口是2258 proxy = {'http': 'http://127.0.0.1:2258'} url = 'xxxxxx' r = requests.get(url, proxies=proxy ) .......
import urllib.request url = 'xxxxxxxxxx' proxy = urllib.request.ProxyHandler({'http': '127.0.0.1'}) open_proxy = urllib.request.build_opener(proxy ) # 打开代理 urllib.request.urlretrieve(url)
urllib3 是 urllib 模块的改进版本。使用pip下载并安装
pip install urllib3
以上就是python 下载文件的几种方法汇总的详细内容,更多关于python 下载文件的资料请关注小牛知识库其它相关文章!
本文向大家介绍详解Java文件下载的几种实现方式,包括了详解Java文件下载的几种实现方式的使用技巧和注意事项,需要的朋友参考一下 Java文件下载的几种方式,具体如下: //支持在线打开文件的一种方式 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持呐喊教程。
本文向大家介绍Python 处理文件的几种方式,包括了Python 处理文件的几种方式的使用技巧和注意事项,需要的朋友参考一下 在这个世界上,人们每天都在用 Python 完成着不同的工作。而文件操作,则是大家最常需要解决的任务之一。使用 Python,你可以轻松为他人生成精美的报表,也可以用短短几行代码快速解析、整理上万份数据文件。 当我们编写与文件相关的代码时,通常会关注这些事情:我的代码是不
本文向大家介绍PHP下载远程图片的几种方法总结,包括了PHP下载远程图片的几种方法总结的使用技巧和注意事项,需要的朋友参考一下 PHP下载远程图片的几种方法总结 本文演示3个从远程URL下载图片,并保存到本地文件中的方法,包括file_get_contents,curl和fopen。 1. 使用file_get_contents 2.使用CURL 3.使用fopen 感谢阅读,希望能帮助到大家,谢
本文向大家介绍windows mysql 自动备份的几种方法汇总,包括了windows mysql 自动备份的几种方法汇总的使用技巧和注意事项,需要的朋友参考一下 基于之前的文章方法,加入批处理命令即可实现自动备份。只是由于批处理命令中对于备份文件的名字按照时间命名比较特别,所以特别整理一文。 1、复制date文件夹备份 ============================ 假想环境: MyS
本文向大家介绍Python多线程下载文件的方法,包括了Python多线程下载文件的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python多线程下载文件的方法。分享给大家供大家参考。具体实现方法如下: 希望本文所述对大家的Python程序设计有所帮助。
本文向大家介绍Vim中的几种文件备份方法总结,包括了Vim中的几种文件备份方法总结的使用技巧和注意事项,需要的朋友参考一下 一、Vim 的交换文件 .filename.swp 默认交换文件在打开文件的时候就会产生交换文件,正常退出的时候才会删除交换文件(断电,Ctrl+Z强制退出就不会删除),内容大致是这个样子。 通过在 Vim 配置文件设置 set noswapfile 来关闭交换文件。 二、