当前位置: 首页 > 工具软件 > MooseFS > 使用案例 >

moosefs mysql_moosefs搭建与应用

易英奕
2023-12-01

moosefs搭建与应用

MooseFS简介:

MooseFS是一个具备冗余容错功能的分布式网络文件系统,它将数据分别存放在多个物理服务器单独磁盘或分区上,确保一份数据有多个备份副本。因此MooseFS是一中很好的分布式存储。接下来我们通过搭建moosefs,并了解的使用。

环境主机-centos7:搭建moosefs需要五台主机

node1  172.25.0.29  mfsmaster

node2  172.25.0.30  Metalogger

node3  172.25.0.31  check servers

node4  172.25.0.32  check servers

node5  172.25.0.33  挂载客户端

一、mfsmaster的安装:

node1上

1、下载3.0包[root@node1 src]#yum install zlib-devel -y##下载环境包

[root@node1 src]# wget https://github.com/moosefs/moosefs/archive/v3.0.96.tar.gz

2、安装master:[root@node1 moosefs-3.0.96]# useradd mfs

[root@node1 src]# tar -xf v3.0.96.tar.gz

[root@node1 src]# cd moosefs-3.0.96/

[root@node1 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs --with-default-user=mfs --with-default-group=mfs --disable-mfschunkserver --disable-mfsmount

[root@node1 src]#make && make install

[root@node1 moosefs-3.0.96]# ls /usr/local/mfs/

bin  etc  sbin  share  var

注:etc和var目录里面存放的是配置文件和MFS的数据结构信息,因此请及时做好备份,防止灾难损毁。后面做了 Master Server双机之后,就可以解决这个问题。

3、配置master[root@node1 mfs]# pwd

/usr/local/mfs/etc/mfs

[root@node1 mfs]# ls

mfsexports.cfg.sample  mfsmaster.cfg.sample  mfsmetalogger.cfg.sample  mfstopology.cfg.sample

##要把需要的重命名成.cfg文件:[root@node1 mfs]# cp mfsexports.cfg.sample mfsexports.cfg

[root@node1 mfs]# cp mfsmaster.cfg.sample  mfsmaster.cfg

4、修改控制文件:[root@node1 mfs]#vim mfsexports.cfg

*            /         rw,alldirs,mapall=mfs:mfs,password=xiaoluo

*            .          rw

注:##mfsexports.cfg 文件中,每一个条目就是一个配置规则,而每一个条目又分为三个部分,其中第一部分是mfs客户端的ip地址或地址范围,第二部分是被挂载的目录,第三个部分用来设置mfs客户端可以拥有的访问权限。

5、开启元数据文件默认是empty文件[root@node1 mfs]#cp /usr/local/mfs/var/mfs/metadata.mfs.empty /usr/local/mfs/var/mfs/metadata.mfs

6、启动master:[root@node1 mfs]# /usr/local/mfs/sbin/mfsmaster start

open files limit has been set to: 16384

working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfsmaster modules ...

exports file has been loaded

mfstopology configuration file (/usr/local/mfs/etc/mfstopology.cfg) not found - using defaults

loading metadata ...

metadata file has been loaded

no charts data file - initializing empty charts

master  metaloggers module: listen on *:9419

master  chunkservers module: listen on *:9420

main master server module: listen on *:9421

mfsmaster daemon initialized properly

7、检查进程是否启动:[root@node1 mfs]# ps -ef | grep mfs

mfs        8109      1  5 18:40 ?        00:00:02 /usr/local/mfs/sbin/mfsmaster start

root       8123   1307  0 18:41 pts/0    00:00:00 grep --color=auto mfs

8、查看端口:[root@node1 mfs]# netstat -ntlp

Active Internet connections (only servers)

Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name

tcp        0      0 0.0.0.0:9419            0.0.0.0:*               LISTEN      8109/mfsmaster

tcp        0      0 0.0.0.0:9420            0.0.0.0:*               LISTEN      8109/mfsmaster

tcp        0      0 0.0.0.0:9421            0.0.0.0:*               LISTEN      8109/mfsmaster

二、安装Metalogger Server:

前面已经介绍了,Metalogger Server 是 Master Server 的备份服务器。因此,Metalogger Server 的安装步骤和 Master Server 的安装步骤相同。并且,最好使用和 Master Server 配置一样的服务器来做 Metalogger Server。这样,一旦主服务器master宕机失效,我们只要导入备份信息changelogs到元数据文件,备份服务器可直接接替故障的master继续提供服务。

1、从master把包copy过来:[root@node1 mfs]# scp /usr/local/src/v3.0.96.tar.gz node2:/usr/local/src/

v3.0.96.tar.gz[root@node2 moosefs-3.0.96]# tar zxvf v3.0.96.tar.gz

[root@node2 moosefs-3.0.96]# useradd mfs

[root@node2 moosefs-3.0.96]# yum install zlib-devel -y

[root@node2 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs --with-default-user=mfs --with-default-group=mfs  --disable-mfschunkserver --disable-mfsmount

[root@node2 moosefs-3.0.96]# make && make install

2、配置Metalogger Server:[root@node2 moosefs-3.0.96]# cd /usr/local/mfs/etc/mfs/

[root@node2 mfs]# ls

mfsexports.cfg.sample  mfsmaster.cfg.sample  mfsmetalogger.cfg.sample  mfstopology.cfg.sample

[root@node2 mfs]#cp mfsmetalogger.cfg.sample mfsmetalogger.cfg

[root@node2 mfs]#vim mfsmetalogger.cfg

MASTER_HOST = 172.25.0.29

3、启动Metalogger Server:[root@node2 mfs]#/usr/local/mfs/sbin/mfsmetalogger start

open files limit has been set to: 4096

working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfsmetalogger modules ...

mfsmetalogger daemon initialized properly[root@node2 mfs]# netstat -lantp|grep metalogger

tcp        0      0 172.25.0.30:45620   172.25.0.29:9419    ESTABLISHED 1751/mfsmetalogger

4、查看一下生成的日志文件:[root@node2 mfs]# ls /usr/local/mfs/var/mfs/

changelog_ml_back.0.mfs  changelog_ml_back.1.mfs  metadata.mfs.empty  metadata_ml.mfs.back

三、安装check servers:

在node3和node4上操作,我这里在node3上演示:

1、从master把包copy过来:[root@node1 mfs]# scp /usr/local/src/v3.0.96.tar.gz node3:/usr/local/src/

v3.0.96.tar.gz[root@node3 ~]# useradd mfs

[root@node3 ~]# yum install zlib-devel -y

[root@node3 ~]# cd /usr/local/src/

[root@node3 src]# tar zxvf v3.0.96.tar.gz

[root@node3 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs --with-default-user=mfs --with-default-group=mfs  --disable-mfsmaster --disable-mfsmount

[root@node3 moosefs-3.0.96]# make && make install

2、配置check server:[root@node3 moosefs-3.0.96]# cd /usr/local/mfs/etc/mfs/

You have new mail in /var/spool/mail/root

[root@node3 mfs]# cp mfschunkserver.cfg.sample mfschunkserver.cfg

[root@node3 mfs]# vim mfschunkserver.cfg

MASTER_HOST = 172.25.0.29

3、配置mfshdd.cfg主配置文件

mfshdd.cfg该文件用来设置你将 Chunk Server 的哪个目录共享出去给 Master Server进行管理。当然,虽然这里填写的是共享的目录,但是这个目录后面最好是一个单独的分区。[root@node3 mfs]# cp /usr/local/mfs/etc/mfs/mfshdd.cfg.sample /usr/local/mfs/etc/mfs/mfshdd.cfg

You have new mail in /var/spool/mail/root

[root@node3 mfs]# vim /usr/local/mfs/etc/mfs/mfshdd.cfg

/mfsdata

4、启动check Server:[root@node3 mfs]# mkdir /mfsdata

[root@node3 mfs]# chown mfs:mfs /mfsdata/

You have new mail in /var/spool/mail/root

[root@node3 mfs]# /usr/local/mfs/sbin/mfschunkserver start

open files limit has been set to: 16384

working directory: /usr/local/mfs/var/mfs

lockfile created and locked

setting glibc malloc arena max to 4

setting glibc malloc arena test to 4

initializing mfschunkserver modules ...

hdd space manager: path to scan: /mfsdata/

hdd space manager: start background hdd scanning (searching for available chunks)

main server module: listen on *:9422

no charts data file - initializing empty charts

mfschunkserver daemon initialized properly

###检查监听端口:[root@node3 mfs]# netstat -lantp|grep 9420

tcp        0      0 172.25.0.31:45904   172.25.0.29:9420    ESTABLISHED 9896/mfschunkserver

四、客户端挂载文件安装:

node5上

1、安装FUSE:[root@node5 mfs]# lsmod|grep fuse

[root@node5 mfs]# yum install fuse fuse-devel  -y

[root@node5 ~]# modprobe fuse

[root@node5 ~]# lsmod |grep fuse

fuse                   91874  0

2、安装挂载客户端[root@node5 ~]# yum install zlib-devel -y

[root@node5 ~]# useradd mfs

[root@node5 src]# tar -zxvf v3.0.96.tar.gz

[root@node5 src]# cd moosefs-3.0.96/

[root@node5 moosefs-3.0.96]# ./configure --prefix=/usr/local/mfs --with-default-user=mfs --with-default-group=mfs --disable-mfsmaster --disable-mfschunkserver --enable-mfsmount

[root@node5 moosefs-3.0.96]# make && make install

3、在客户端上挂载文件系统,先创建挂载目录:[root@node5 moosefs-3.0.96]# mkdir /mfsdata

[root@node5 moosefs-3.0.96]# chown -R mfs:mfs /mfsdata/

[root@node5 moosefs-3.0.96]# /usr/local/mfs/bin/mfsmount /mfsdata -H 172.25.0.29 -p

MFS Password:

mfsmaster accepted connection with parameters: read-write,restricted_ip,map_all ; root mapped to mfs:mfs ; users mapped to mfs:mfs[root@node5 ~]# df -h

Filesystem           Size  Used Avail Use% Mounted on

/dev/mapper/cl-root   18G  1.9G   17G  11% /

devtmpfs             226M     0  226M   0% /dev

tmpfs                237M     0  237M   0% /dev/shm

tmpfs                237M  4.6M  232M   2% /run

tmpfs                237M     0  237M   0% /sys/fs/cgroup

/dev/sda1           1014M  139M  876M  14% /boot

tmpfs                 48M     0   48M   0% /run/user/0

172.25.0.29:9421     36G  4.2G   32G  12% /mfsdata

4、我们写入本地文件测试一下:[root@node5 moosefs-3.0.96]# cd /mfsdata/

[root@node5 mfsdata]# touch xiaozhang.txt

[root@node5 mfsdata]# echo "test" > xiaozhang.txt

[root@node5 mfsdata]#cat  xiaozhang.txt

test

发现可以写入成功。也证明我们的mfs已经搭建完成的。

总结:现在我们我可以发现,mfs的master只有一台,很明显得单点缺陷,因此为了解决这个问题,我也查阅了很多资料,终于解决了这个单点的问题,详细可以参考文章:https://blog.51cto.com/xiaozhagn/1977052

 类似资料: