go-fastdfs是一个基于http协议的分布式文件系统,它基于大道至简的设计理念,一切从简设计,使得它的运维及扩展变得更加简单,它具有高性能、高可靠、无中心、免维护等优点。
./fileserver
curl -F file=@http-index-fs http://10.1.xx.60:8080/upload
http://yourserver ip:8080
注意:不要使用127.0.0.1上传
python版本
import requests url = 'http://10.1.5.9:8080/upload' files = {'file': open('report.xls', 'rb')} options={'output':'json','path':'','scene':''} #参阅浏览器上传的选项 r = requests.post(url, files=files) print(r.text)
golang版本
package main import ( "fmt" "github.com/astaxie/beego/httplib" ) func main() { var obj interface{} req:=httplib.Post("http://10.1.5.9:8080/upload") req.PostFile("file","path/to/file") req.Param("output","json") req.Param("scene","") req.Param("path","") req.ToJSON(&obj) fmt.Print(obj) }
java版本
依赖(这里使用了hutool工具包,更简便)
cn.hutool hutool-all 4.4.3
上传代码
public static void main(String[] args) { //文件地址 File file = new File("D:\\git\\2.jpg"); //声明参数集合 HashMap paramMap = new HashMap<>(); //文件 paramMap.put("file", file); //输出 paramMap.put("output","json"); //自定义路径 paramMap.put("path","image"); //场景 paramMap.put("scene","image"); //上传 String result= HttpUtil.post("http://xxxxx:xxxx/upload", paramMap); //输出json结果 System.out.println(result); }
golang版本
package main import ( "os" "fmt" "github.com/eventials/go-tus" ) func main() { f, err := os.Open("100m") if err != nil { panic(err) } defer f.Close() // create the tus client. client, err := tus.NewClient("http://10.1.5.9:8080/big/upload/", nil) fmt.Println(err) // create an upload from a file. upload, err := tus.NewUploadFromFile(f) fmt.Println(err) // create the uploader. uploader, err := client.CreateUpload(upload) fmt.Println(err) // start the uploading process. fmt.Println( uploader.Upload()) }
部署图
有问题请点击反馈
在issue中有很多实际使用的问题及回答(很多已关闭,请查看已关闭的issue)
项目从v1.1.8开始进入稳定状态
一、如果是海量存储,不要开启文件token认证功能,减少性能开消。 二、尽量用标准上传,上传后业务保存path,在业务用的时候再并接上域名(方便迁移扩展等)。 三、如果使用断点续传,上传后一定要用文件id置换成path存储(如何置换看QA/API文档),为后面访问减少性能开消。 四、尽量使用物理服务器部署,因为主要压力或性能来自于IO 总结:业务保存的文件的path,减少后期访问路径转换带来开消,文件访问权限由业务来完成,这样性能最好,通用性强(可直接其它web服务器)。 重要提醒:如果开启小文件合并功能,后期是无法删除小文件的。
由于问的人太多,在这里统一回答。 go-fastdfs的文件定位与其它分布式系统不同,它的寻址是直接定位,不经过任何组件,所以可以近似时间复杂度为o(1)[文件路径定位] 基本没有性能损耗,项目中也附有压测脚本,大家可以自已进行压测,群里就不要太多讨论问题了,人多每次回复同样的问题 大家也会觉得这群无聊。
答案是可以的,你担心的问题是路径改变,go fastdfs为你考虑了这一点 步骤: 一、下载最新版的go-fastdfs 二、将原来的fastdfs文件目录复制到go-fastdfs的 files目录下 三、将配置enable_migrate设为true 注意:迁移过程中会扫描整下files目录下的所有文件, 速度较慢,迁移完成后请将enable_migrate设为false
1、在go-fastdfs中,一个集群就是一个group。 2、请参阅部署图 注意:配置中的 support_group_manage 参数设为true时,所有的url中都自动添加组信息。 例如:http://10.1.5.9:8080/group/status 默认:http://10.1.5.9:8080/status 区别:多了group,对应配置中的 group 参数,这样主要是为了解决一个Nginx反向代理多个group(集群) 具体请参阅部署图
一、先下载已编译的可执行文件(用最新版本) 二、运行可执行文件(生成配置) 三、修改配置 peers:增加对端的http地址 检查: host:自动生成是否正确 peer_id:集群内是否唯一 四、重新运行服器 五、验证服务是否OK
答案:适合海量存储 特别说明: 需然用leveldb作为元数据存储,但不强依懒leveldb, 并且进行超过1亿以上的文件进行压测(可以用项目提供的脚本进行压测,有问题及时反馈到issue), 1亿文件元数据大小约5G,导出元数据文本大小22G
可以不安装,也可以选择安装 go fastdfs 本身就是一个高性能的web文件服务器。
答案:是可以的,但要更新到最新版本 步骤: 1)修改 conf/cfg.json 文件 2)访问 http://10.1.xx.60:8080/reload 3) 注意:每个节点都需要进行同样的操作
http://10.1.xx.60:8080/stat 如果出现文件统计出错怎么办? 请删除 data目录下的 stat.json文件 重启服务,请系统自动重新计算文件数。 或者调用 http://10.1.xx.60:8080/repair_stat
本项目已大规模用于生产环境,如担心不能满足 可以在使用前对其各项特性进行压力测试,有任何 问题可以直接提issue
不能,在设计之初就已考虑到集群的高可用问题,为了保证集群的真正可用,必须为不同的ip,ip 不能用 127.0.0.1 错误 "peers": ["http://127.0.0.1:8080","http://127.0.0.1:8081","http://127.0.0.1:8082"] 正确 "peers": ["http://10.0.0.3:8080","http://10.0.0.4:8080","http://10.0.0.5:8080"]
正常情况下,集群会每小时自动同步修复文件。(性能较差,在海量情况下建议关闭自动修复) 那异常情况下怎么? 答案:手动同步(最好在低峰执行) http://172.16.70.123:7080/sync?date=20190117&force=1 (说明:要在文件多的服务器上执行,相关于推送到别的服务器) 参数说明:date 表示同步那一天的数据 force 1.表示是否强制同步当天所有(性能差),0.表示只同步失败的文件 不同步的情况: 1) 原来运行N台,现在突然加入一台变成N+1台 2)原来运行N台,某一台机器出现问题,变成N-1台 如果出现多天数据不一致怎么办?能一次同步所有吗? 答案是可以:(最好在低峰执行) http://172.16.70.123:7080/repair?force=1
答案:不会影响,会在访问不到时,自动修复不同步的文件。
http://172.16.70.123:7080/status 注意:(Fs.Peers是不带本机的,如果带有可能出问题) 本机为 Fs.Local sts["Fs.ErrorSetSize"] = this.errorset.Cardinality() 这个会导致内存增加
git clone https://github.com/sjqzhang/go-fastdfs.git cd go-fastdfs mv vendor src pwd=`pwd` GOPATH=$pwd go build -o fileserver fileserver.go
git clone https://github.com/sjqzhang/go-fastdfs.git cd go-fastdfs mv vendor src pwd=`pwd` GOPATH=$pwd go test -v fileserver.go fileserver_test.go
先用gen_file.py产生大量文件(注意如果要生成大文件,自已在内容中乘上一个大的数即可) 例如: # -*- coding: utf-8 -*- import os j=0 for i in range(0,1000000): if i%1000==0: j=i os.system('mkdir %s'%(i)) with open('%s/%s.txt'%(j,i),'w+') as f: f.write(str(i)*1024) 接着用benchmark.py进行压测 也可以多机同时进行压测,所有节点都是可以同时读写的
一、目前的代码还非常简单,没必要弄得太复杂。 二、个人理解模块化不是分开多个文件就表示模块化,大家可以用IDE去看一下代码结构,其实是已经模块化的。
答案:支持 curl wget 如何 wget -c http://10.1.5.9:8080/group1/default/20190128/16/10/2G culr -C - http://10.1.5.9:8080/group1/default/20190128/16/10/2G
步骤: 方式一、 一、构建镜像 docker build . -t fastdfs 二、运行容器(使用环境变量 GO_FASTDFS_DIR 指向存储目录。) docker run --name fastdfs -v /data/fastdfs_data:/data -e GO_FASTDFS_DIR=/data fastdfs 方式二、 一、拉取镜像 docker pull sjqzhang/go-fastdfs 二、运行容器 docker run --name fastdfs -v /data/fastdfs_data:/data -e GO_FASTDFS_DIR=/data fastdfs
一般的分块上传都要客户端支持,而语言的多样性,客户端难以维护,但分块上传的功能又有必要,为此提供一个简单的实现思路。 方案一、 借助linux split cat 实现分割与合并,具体查看 split 与 cat 帮助。 分割: split -b 1M filename #按每个文1M 合并: cat x* > filename #合并 方案二、 借助hjsplit http://www.hjsplit.org/ 具体自行实现 方案三、 建议用go实现hjsplit分割合并功,这样具有跨平台功能。(未实现,等你来....) 方案四、 使用内置的继点续传功能(使用protocol for resumable uploads协议,[详情](https://tus.io/)) 注意:方案四、只能指定一个上传服务器,不支持同时写,并且上传的url有变化 原上传url: http://10.1.5.9:8080//upload 断点上传url: http://10.1.5.9:8080//big/upload/ 上传完成,再通过秒传接口,获取文件信息
通过http get的方式访问上传接口 http://10.0.5.9:8080/upload?md5=filesum&output=json 参数说明: md5=sum(file) 文件的摘要算法要与文件务器的算法一致(算法支持md5|sha1),如果是断点续传,可以使用文件的id,也就是urlolad后的id output=json|text 返回的格式
建议在前期规划时,尽量采购大容量的机器作为存储服务器,如果要两个复本就用两台组成一个集群,如果要三个复本 就三台组成一个集群。(注意每台服务器最好配置保持一样) 如果提高可用性,只要在现在的集群peers中加入新的机器,再对集群进行修复即可。 修复办法 http://172.16.70.123:7080/repair?force=1 (建议低峰变更) 如何扩容? 为简单可靠起见,直接搭建一个新集群即可(搭建就是启动./fileserver进程,设置一下peers的IP地址,三五分钟的事) issue中chengyuansen同学向我提议使用增加扩容特性,我觉得对代码逻辑及运维都增加复杂度,暂时没有加入这特性。
出于安全考虑,管理API只能在群集内部调用或者用127.0.0.1调用.
go-fastdfs 进入go-fastdfs学习之路 linux安装 先安装vim命令 yum install vim(centos编辑器) 安装wget命令 yum install wget(centos中下载) firewall-cmd —state ##查看防火墙状态,是否是running firewall-cmd —reload ##重新载入配置,比如添加规则之后,需要执行此命令 fir
分享一个go-fastdfs client 调用函数 package utils import ( "github.com/astaxie/beego/httplib" ) type FastDFSClient struct { Req *httplib.BeegoHTTPRequest } func NewFastDFSClient(serverUrl string)*FastDFSCli
分布式文件系统对比 简单介绍 minIO minIO MinIO 是一个基于Apache License v2.0开源协议的对象存储服务。 它兼容亚马逊S3云存储服务接口,非常适合于存储大容量非结构化的数据,例如图片、视频、日志文件、备份数据和容器/虚拟机镜像等,而一个对象文件可以是任意大小,从几kb到最大5T不等。 MinIO是一个非常轻量的服务,可以很简单的和其他应用的结合,类似 NodeJS
愿景 · GitBook 一、开源地址:GitHub - sjqzhang/go-fastdfs: go-fastdfs 是一个简单的分布式文件系统(私有云存储),具有无中心、高性能,高可靠,免维护等优点,支持断点续传,分块上传,小文件合并,自动同步,自动修复。Go-fastdfs is a simple distributed file system (private cloud storage
使用docker安装命令: mynetwork 是一个自定义路由 docker run --name fastdfs2 --network mynetwork --ip 10.88.0.5 -d -v /data/fastdfs_data2:/data -p 5888:8080 -e GO_FASTDFS_DIR=/data sjqzhang/go-fastdfs docker run --nam
本文向大家介绍FastDFS分布式文件系统环境搭建及安装过程解析,包括了FastDFS分布式文件系统环境搭建及安装过程解析的使用技巧和注意事项,需要的朋友参考一下 FastDFS:分布式文件系统 它对文件进行管理,功能包括:文件存储、文件同步、文件访问(文件上传、文件下载)等,解决了大容量存储和负载均衡的问题。 特别适合以文件为载体的在线服务,如相册网站、视频网站等等。 FastDFS为互联网量身
数据存储容量的问题。 数据读写速度的问题。 数据可靠性的问题。 几种常见 RAID 的对比|名称|优点|缺点| |------|------|------| |RAID 0|使用 N 块磁盘的 RAID 0,将数据从内存写入磁盘时,将数据分成 N 块,并发写入,读取同理。所以,读写速度是单盘的 N 倍。|任何一块盘损坏,数据完整性破坏,数据不可用。| |RAID 1|数据写入磁盘时,将一份数据同时
主要内容:1.难题与方案,2.具体措施,3.九种技术架构1.难题与方案 1、亿级流量电商网站的商品详情页系统架构 面临难题:对于每天上亿流量,拥有上亿页面的大型电商网站来说,能够支撑高并发访问,同时能够秒级让最新模板生效的商品详情页系统的架构是如何设计的? 解决方案:异步多级缓存架构+nginx本地化缓存+动态模板渲染的架构 2、redis企业级集群架构 面临难题:如何让redis集群支撑几十万QPS高并发+99.99%高可用+TB级海量数据+企业级数
本文向大家介绍Kafka 的高可靠性是怎么实现的?相关面试题,主要包含被问及Kafka 的高可靠性是怎么实现的?时的应答技巧和注意事项,需要的朋友参考一下 数据可靠性 Kafka 作为一个商业级消息中间件,消息可靠性的重要性可想而知。本文从 Producter 往 Broker 发送消息、Topic 分区副本以及 Leader 选举几个角度介绍数据的可靠性。 Topic 分区副本 在 Kafka
主要内容:一、写在前面,二、active-standby高可用架构,三、Master-Slave架构的分布式计算系统,四、弹性计算资源调度机制,五、分布式系统高容错机制,六、阶段性总结一、写在前面 商家数据平台第一个阶段的架构演进过程中,通过离线与实时计算链路的拆分,离线计算的增量计算优化,实时计算的滑动时间窗口计算引擎,分库分表 + 读写分离,等各种技术手段,支撑住了百亿量级的数据量的存储与计算。 我们先来回看一下当时的那个架构图,然后继续聊聊这套架构在面对高并发、高可用、高性能等各种技术挑战
是否可以在高可用性(HA)模式下运行Neo4j,并对多个java客户端(java嵌入式)进行读/写访问? 如果是,是否需要特殊配置?(除了标准HA配置之外) 我想在我的计算机上运行一个包含三个本地服务器的HA集群。使用套接字从三个java客户端写入和读取。