本文是为大家分享php支持断点续传、分块下载的类,供大家参考,具体内容如下
<?php /** * User: djunny * Date: 2016-04-29 * Time: 17:18 * Mail: 199962760@qq.com * 支持断点下载的类 */ class downloader { /** * download file to local path * * @param $url * @param $save_file * @param int $speed * @param array $headers * @param int $timeout * @return bool * @throws Exception */ static function get($url, $save_file, $speed = 10240, $headers = array(), $timeout = 10) { $url_info = self::parse_url($url); if (!$url_info['host']) { throw new Exception('Url is Invalid'); } // default header $def_headers = array( 'Accept' => '*/*', 'User-Agent' => 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)', 'Accept-Encoding' => 'gzip, deflate', 'Host' => $url_info['host'], 'Connection' => 'Close', 'Accept-Language' => 'zh-cn', ); // merge heade $headers = array_merge($def_headers, $headers); // get content length $content_length = self::get_content_size($url_info['host'], $url_info['port'], $url_info['request'], $headers, $timeout); // content length not exist if (!$content_length) { throw new Exception('Content-Length is Not Exists'); } // get exists length $exists_length = is_file($save_file) ? filesize($save_file) : 0; // get tmp data file $data_file = $save_file . '.data'; // get tmp data $exists_data = is_file($data_file) ? json_decode(file_get_contents($data_file), 1) : array(); // check file is valid if ($exists_length == $content_length) { $exists_data && @unlink($data_file); return true; } // check file is expire if ($exists_data['length'] != $content_length || $exists_length > $content_length) { $exists_data = array( 'length' => $content_length, ); } // write exists data file_put_contents($data_file, json_encode($exists_data)); try { $download_status = self::download_content($url_info['host'], $url_info['port'], $url_info['request'], $save_file, $content_length, $exists_length, $speed, $headers, $timeout); if ($download_status) { @unlink($data_file); } } catch (Exception $e) { throw new Exception($e->getMessage()); } return true; } /** * parse url * * @param $url * @return bool|mixed */ static function parse_url($url) { $url_info = parse_url($url); if (!$url_info['host']) { return false; } $url_info['port'] = $url_info['port'] ? $url_info['host'] : 80; $url_info['request'] = $url_info['path'] . ($url_info['query'] ? '?' . $url_info['query'] : ''); return $url_info; } /** * download content by chunk * * @param $host * @param $port * @param $url_path * @param $headers * @param $timeout */ static function download_content($host, $port, $url_path, $save_file, $content_length, $range_start, $speed, &$headers, $timeout) { $request = self::build_header('GET', $url_path, $headers, $range_start); $fsocket = @fsockopen($host, $port, $errno, $errstr, $timeout); stream_set_blocking($fsocket, TRUE); stream_set_timeout($fsocket, $timeout); fwrite($fsocket, $request); $status = stream_get_meta_data($fsocket); if ($status['timed_out']) { throw new Exception('Socket Connect Timeout'); } $is_header_end = 0; $total_size = $range_start; $file_fp = fopen($save_file, 'a+'); while (!feof($fsocket)) { if (!$is_header_end) { $line = @fgets($fsocket); if (in_array($line, array("\n", "\r\n"))) { $is_header_end = 1; } continue; } $resp = fread($fsocket, $speed); $read_length = strlen($resp); if ($resp === false || $content_length < $total_size + $read_length) { fclose($fsocket); fclose($file_fp); throw new Exception('Socket I/O Error Or File Was Changed'); } $total_size += $read_length; fputs($file_fp, $resp); // check file end if ($content_length == $total_size) { break; } sleep(1); // for test //break; } fclose($fsocket); fclose($file_fp); return true; } /** * get content length * * @param $host * @param $port * @param $url_path * @param $headers * @param $timeout * @return int */ static function get_content_size($host, $port, $url_path, &$headers, $timeout) { $request = self::build_header('HEAD', $url_path, $headers); $fsocket = @fsockopen($host, $port, $errno, $errstr, $timeout); stream_set_blocking($fsocket, TRUE); stream_set_timeout($fsocket, $timeout); fwrite($fsocket, $request); $status = stream_get_meta_data($fsocket); $length = 0; if ($status['timed_out']) { return 0; } while (!feof($fsocket)) { $line = @fgets($fsocket); if (in_array($line, array("\n", "\r\n"))) { break; } $line = strtolower($line); // get location if (substr($line, 0, 9) == 'location:') { $location = trim(substr($line, 9)); $url_info = self::parse_url($location); if (!$url_info['host']) { return 0; } fclose($fsocket); return self::get_content_size($url_info['host'], $url_info['port'], $url_info['request'], $headers, $timeout); } // get content length if (strpos($line, 'content-length:') !== false) { list(, $length) = explode('content-length:', $line); $length = (int)trim($length); } } fclose($fsocket); return $length; } /** * build header for socket * * @param $action * @param $url_path * @param $headers * @param int $range_start * @return string */ static function build_header($action, $url_path, &$headers, $range_start = -1) { $out = $action . " {$url_path} HTTP/1.0\r\n"; foreach ($headers as $hkey => $hval) { $out .= $hkey . ': ' . $hval . "\r\n"; } if ($range_start > -1) { $out .= "Accept-Ranges: bytes\r\n"; $out .= "Range: bytes={$range_start}-\r\n"; } $out .= "\r\n"; return $out; } } #use age /* try { if (downloader::get('http://dzs.aqtxt.com/files/11/23636/201604230358308081.rar', 'test.rar')) { //todo echo 'Download Succ'; } } catch (Exception $e) { echo 'Download Failed'; } */ ?>
以上就是本文的全部内容,希望对大家的学习有所帮助。
本文向大家介绍PHP实现下载断点续传的方法,包括了PHP实现下载断点续传的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了PHP实现下载断点续传的方法。分享给大家供大家参考。 具体实现代码如下: 希望本文所述对大家的PHP程序设计有所帮助。
本文向大家介绍在ASP.NET中支持断点续传下载大文件(ZT)源码,包括了在ASP.NET中支持断点续传下载大文件(ZT)源码的使用技巧和注意事项,需要的朋友参考一下 IE的自带下载功能中没有断点续传功能,要实现断点续传功能,需要用到HTTP协议中鲜为人知的几个响应头和请求头。 一. 两个必要响应头Accept-Ranges、ETag 客户端每次提交下载请求时,服务端都要添加这两个响应头,以保证客
本文向大家介绍android实现多线程下载文件(支持暂停、取消、断点续传),包括了android实现多线程下载文件(支持暂停、取消、断点续传)的使用技巧和注意事项,需要的朋友参考一下 多线程下载文件(支持暂停、取消、断点续传) 多线程同时下载文件即:在同一时间内通过多个线程对同一个请求地址发起多个请求,将需要下载的数据分割成多个部分,同时下载,每个线程只负责下载其中的一部分,最后将每一个线程下载的
本文向大家介绍PHP大文件及断点续传下载实现代码,包括了PHP大文件及断点续传下载实现代码的使用技巧和注意事项,需要的朋友参考一下 一般来说浏览器要同时下载几个文件,比如pdf文件,会在服务器端把几个文件压缩成一个文件。但是导致的问题就是会消耗服务器的cpu和io资源。 那有没有办法,用户点了几个文件,在客户端同时下载呢? 支持html5的浏览器是可以的,html的a标签有一个属性download
本文向大家介绍Python使用urllib2模块实现断点续传下载的方法,包括了Python使用urllib2模块实现断点续传下载的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python使用urllib2模块实现断点续传下载的方法。分享给大家供大家参考。具体分析如下: 在使用HTTP协议进行下载的时候只需要在头上设置一下Range的范围就可以进行断点续传下载,当然,首先服务器需要支
本文向大家介绍基于断点续传下载原理的实现,包括了基于断点续传下载原理的实现的使用技巧和注意事项,需要的朋友参考一下 需求背景 动态创建的文件下载的时候希望浏览器显示下载进度 动态创建的文件希望能够分段下载 HTTP断点续传报文 要实现HTTP断点续传必须要简单了解以下几个报文。 Accept-Ranges 告诉客户端(浏览器..)服务器端支持断点续传 服务器端返回 Range 客户端告诉服务器端从