btrfs,全称为b-tree,江湖上也有人管他叫butter FS或Better FS,遵循GPL协定,由oracle公司从2007年左右开始研发。
创建并挂载brtfs
文件系统
mkfs.btrfs [option] DEV:创建btrfs
option:
-L:指定卷标。
-m:指定元数据如何存放,支持raid0|1|5|6|10、single、dup,确保底层设备够用。
-d:指定数据如何存放,支持raid0|1|5|6|10、single。
-O:指定启用的特性,需在格式化时使用,但是一些老内核可能不支持全部特性,可使用mkfd.brtfs -O list-all查看支持的特性。
挂载btrfs
和挂载普通文件系统无异。
mount -t brtfs DEV MOUNT_POINT:-t也可以缺省。
启用透明压缩机制:mount -o comperess={lzo|zlib} DEVICE MOUNT_POINT
管理brtfs命令
命令格式:btrfs <subcommand> [option]
1. brtfs filesystem [option]:管理btrfs系统的命令。
option:
(1) show|[--mounted|--all-devices|<path>|<uudi>|device|<label>]:显示brtfs文件系统,支持多种指定方式。
(2) sync <path>:强制将指定设备存储在内存上的数据同步到磁盘上。
(3) df <path>:查看指定已挂载设备的空间使用率情况。
(4) defragmeng [option] <file> | <dir>:做磁盘碎片整理。
(5) resize [+|-]#[gkm] <path> | max <path>:改变文件系统大小。
(6) label [<dev>|<mountpoint>] [<newlabel>] :显示卷标。
2. btrfs device [option]:管理硬件设备的命令。
option:
(1) add DEV path:新增设备。
(2) deleta DEV path:移除一个设备,btrfs可以智能将预拆除设备上的数据移除,并且文件系统逻辑边界与物理边界自动调整,\\
但是在拆除前,一定确保拆除后的磁盘大小能够承载现有数据。
(3) scan:扫描设备。
(4) ready:将指定设备转为备用状态。
(5) state:显示I\O统计数据。
3. btrfs balance [option] path:实现数据均衡。
option:
(1) status <path>:查看文件系统均衡进度。
(2) start [[-m|-d]convert] <path>:启动均衡,可以修改数据及元数据的组织机制,或仅均衡数据。
(3) stop <path>:终止均衡。
(4) pause <path>:暂停均衡。
(5) resume <path>:继续均衡。
4. btrfs subvolume [option] path:子卷管理命令。
option:
(1) list path:列出子卷。
(2) create /path/sub_path:创建子卷,直接在父卷下使用类似创建目录的形式创建子卷。
(3) delete /path:删除子卷
(4) show path:显示子卷的详细信息。
(5) snapshot VOL VOL_SNAP:创建快照卷。
(6) get default:查看默认卷。
(7) set default:设置默认卷。
可以单独挂载子卷,使用mount -o subvol=SUB_NAME DEV /path,也可以使用卷ID实现挂载。
5. btrfs-convert [option] DEV
option:
(1) -r:回滚文件系统。
分步开始:
首先在虚拟机中加入4块硬盘或4个分区,格式化其中3个创建成btrfs。
[root@node1 ~]# mkfs.btrfs -L mydata /dev/sdb1 /dev/sdb2 /dev/sdb3
btrfs-progs v4.9.1
See http://btrfs.wiki.kernel.org for more information.
Label: mydata
UUID: 43f82814-243e-4154-b3f5-be980e5b3cb0
Node size: 16384
Sector size: 4096
Filesystem size: 65.00GiB
Block group profiles:
Data: RAID0 3.00GiB
Metadata: RAID1 1.00GiB
System: RAID1 8.00MiB
SSD detected: no
Incompat features: extref, skinny-metadata
Number of devices: 3
Devices:
ID SIZE PATH
1 20.00GiB /dev/sdb1
2 30.00GiB /dev/sdb2
3 15.00GiB /dev/sdb3
[root@node1 ~]# blkid /dev/sdb1
/dev/sdb1: LABEL="mydata" UUID="43f82814-243e-4154-b3f5-be980e5b3cb0" UUID_SUB="611caec5-f15a-4e4a-b734-2564a7e6151c" TYPE="btrfs"
[root@node1 ~]# blkid /dev/sdb2
/dev/sdb2: LABEL="mydata" UUID="43f82814-243e-4154-b3f5-be980e5b3cb0" UUID_SUB="0b963519-fe9d-4107-a283-d34057e07be7" TYPE="btrfs"
[root@node1 ~]# blkid /dev/sdb3
/dev/sdb3: LABEL="mydata" UUID="43f82814-243e-4154-b3f5-be980e5b3cb0" UUID_SUB="fb035730-f919-486b-9ce3-a60fdae3621b" TYPE="btrfs"
这里可以看到,3个分区共同组成了1个btrfs,并且每个分区使用不同的UUID_SUB
来区分。
[root@node1 ~]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb1 65G 18M 52G 1% /mydata
分区大小分别为 20G、30G、15G共同组成 65G 大小的Btrfs。
[root@node1 ~]# btrfs filesystem resize -20G /mydata
Resize '/mydata' of '-20G'
ERROR: unable to resize '/mydata': Invalid argument <------这里-20G报错了,提示参数错误。
[root@node1 ~]# btrfs filesystem resize -19G /mydata
Resize '/mydata' of '-19G'
ERROR: unable to resize '/mydata': No space left on device <---------这里-19G报错了,提示磁盘空间不足。
[root@node1 ~]# btrfs filesystem resize -18G /mydata
Resize '/mydata' of '-18G'
执行成功后,我又将空间调整为max。
[root@node1 ~]# btrfs filesystem resize -15G /mydata
Resize '/mydata' of '-15G'
执行成功后,我又将空间调整为max。
[root@node1 ~]# btrfs filesystem resize max /mydata
Resize '/mydata' of 'max'
[root@node1 ~]# btrfs filesystem resize -10G /mydata
Resize '/mydata' of '-10G'
这里遇到个小问题,空间减少20G与空间减少19G都报错了,但是报错信息不同,自我推测原因为Btrfs存储元数据及数据会默认启用RAID机制,应该是-20G或19G就会破坏现在的RAID级别,所以它拒绝修改,于是我尝试着将调整btrfs的数据组织机制,尝试过raid0、raid1、raid5、single的不同组合(single暂未设置成功),有趣的是,调整数据组织机制后,执行缩减空间大小命令时,报错区间也变化了。目前还没摸清具体的缩减取值区间及规律,不过我笃定数据组织机制就是限制空间缩减的元凶。
[root@node1 ~]# btrfs filesystem show
Label: 'mydata' uuid: 43f82814-243e-4154-b3f5-be980e5b3cb0
Total devices 3 FS bytes used 704.00KiB
devid 1 size 2.00GiB used 1.16GiB path /dev/sdb1
devid 2 size 30.00GiB used 1.16GiB path /dev/sdb2
devid 3 size 15.00GiB used 1.16GiB path /dev/sdb3
[root@node1 ~]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb1 47G 17M 46G 1% /mydata
可以看到,现在这个brtfs共有3个分区,并且空间共47G。现在我使用dd命令,向btrfs中填充一些数据。
[root@node1 ~]# dd if=/dev/zero of=/mydata/data.dd bs=1G count=10
10+0 records in
10+0 records out
10737418240 bytes (11 GB) copied, 38.9366 s, 276 MB/s
[root@node1 mydata]# ll -h
total 10G
-rw-r--r--. 1 root root 10G May 12 21:19 data.dd
执行命令将新的分区加入这个btrfs。
[root@node1 mydata]# btrfs device add /dev/sdb5 /mydata
[root@node1 mydata]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb1 82G 11G 63G 14% /mydata
[root@node1 mydata]# btrfs filesystem show /mydata
Label: 'mydata' uuid: 43f82814-243e-4154-b3f5-be980e5b3cb0
Total devices 4 FS bytes used 10.01GiB
devid 1 size 2.00GiB used 2.00GiB path /dev/sdb1
devid 2 size 30.00GiB used 9.00GiB path /dev/sdb2
devid 3 size 15.00GiB used 9.00GiB path /dev/sdb3
devid 4 size 35.00GiB used 0.00B path /dev/sdb5
现在已经完成了新分区加入,接着对数据进行balance。
[root@node1 mydata]# btrfs balance start /mydata
WARNING:
Full balance without filters requested. This operation is very
intense and takes potentially very long. It is recommended to
use the balance filters to narrow down the balanced data.
Use 'btrfs balance start --full-balance' option to skip this
warning. The operation will start in 10 seconds.
Use Ctrl-C to stop it.
10 9 8 7 6 5 4 3 2 1
Starting balance without any filters.
Done, had to relocate 11 out of 11 chunks
有道机翻:完全平衡,没有过滤器要求。这次行动非常紧张,可能需要很长时间。
建议使用均衡过滤器来缩小被均衡的数据范围。使用'btrfs balance start——full-balance'选项跳过此警告。
过程中查看balance状态:
[root@node1 ~]# btrfs balance status /mydata
Balance on '/mydata' is running
2 out of about 11 chunks balanced (3 considered), 82% left
不管如何,最后它提示了Done。那就暂且算验证成功了吧。
ok,首先看看btrfs上的子卷信息。
[root@node1 ~]# btrfs subvolume show /mydata
/mydata
Name: <FS_TREE>
UUID: -
Parent UUID: -
Received UUID: -
Creation time: -
Subvolume ID: 5
Generation: 193
Gen at creation: 0
Parent ID: 0
Top level ID: 0
Flags: -
Snapshot(s):
输出的信息可以看到,现在就一个卷。
那我们来创建一个:
[root@node1 ~]# btrfs subvolume create /mydata/test_sub
Create subvolume '/mydata/test_sub'
[root@node1 ~]# btrfs subvolume create /mydata/test_sub2
Create subvolume '/mydata/test_sub2'
[root@node1 ~]# btrfs subvolume show /mydata
/mydata
Name: <FS_TREE>
UUID: -
Parent UUID: -
Received UUID: -
Creation time: -
Subvolume ID: 5
Generation: 200
Gen at creation: 0
Parent ID: 0
Top level ID: 0
Flags: -
Snapshot(s):
test_sub
test_sub2
注意看输出信息的最后一行,Snapshot(s)下已经显示了两个子卷。
挂载两个子卷
[root@node1 ~]# mount -o subvol=/test_sub /dev/sdb1 /sub1
[root@node1 ~]# mount -o subvol=/test_sub2 /dev/sdb1 /sub2
[root@node1 ~]# ll /sub1 /sub2
/sub1:
total 0
/sub2:
total 0
[root@node1 ~]# mount
/dev/sdb1 on /sub1 type btrfs (rw,relatime,seclabel,space_cache,subvolid=283,subvol=/test_sub)
/dev/sdb1 on /sub2 type btrfs (rw,relatime,seclabel,space_cache,subvolid=284,subvol=/test_sub2)
[root@node1 ~]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb1 82G 11G 66G 14% /sub1
/dev/sdb1 82G 11G 66G 14% /sub2
子卷中并没有看到刚刚dd命令填充的数据,且可用空间信息的是相同的。
向子卷中加入数据点数据,卸载子卷,挂载父卷,查看数据。
[root@node1 ~]# ls /mydata/test_sub{,2}
/mydata/test_sub:
test.snap
/mydata/test_sub2:
验证完毕
btrfs subvolume snapshot /mydata/test_sub /mydata/sub1-snap
Create a snapshot of '/mydata/test_sub' in '/mydata/sub1-snap'
[root@node1 ~]# echo 'busyops@outlook.com' >> /mydata/test_sub/test.snap
[root@node1 ~]# cat /mydata/sub1-snap/test.snap
this is first line.
ni hao ni hao.
busyops@outlook.com
yi jian san lian.
tou bi,dian zan, shoucang.
SSSSSSSSSSSSSSSSSSSSSSSSSSS
DDDDDDDDDDDDDDDDDDDDDDDDDDD
[root@node1 ~]# cat /mydata/test_sub/test.snap
this is first line.
ni hao ni hao.
busyops@outlook.com
yi jian san lian.
tou bi,dian zan, shoucang.
SSSSSSSSSSSSSSSSSSSSSSSSSSS
DDDDDDDDDDDDDDDDDDDDDDDDDDD
busyops@outlook.com
快照卷验证完毕,下面在btrfs系统中移除设备。首先查看文件系统信息:
[root@node1 ~]# btrfs filesystem show /mydata
Label: 'mydata' uuid: 43f82814-243e-4154-b3f5-be980e5b3cb0
Total devices 4 FS bytes used 10.01GiB
devid 1 size 2.00GiB used 1023.00MiB path /dev/sdb1
devid 2 size 30.00GiB used 5.53GiB path /dev/sdb2
devid 3 size 15.00GiB used 5.53GiB path /dev/sdb3
devid 4 size 35.00GiB used 5.53GiB path /dev/sdb5
[root@node1 ~]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb1 82G 11G 66G 14% /mydata
现在btrfs
中共有4个分区,尝试移除设备。
[root@node1 ~]# btrfs device remove /dev/sdb1 /mydata
[root@node1 ~]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb2 80G 11G 63G 14% /mydata
[root@node1 ~]# btrfs device remove /dev/sdb2 /mydata
[root@node1 ~]# df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 1.4G 0 1.4G 0% /dev
tmpfs 1.4G 0 1.4G 0% /dev/shm
tmpfs 1.4G 9.5M 1.4G 1% /run
tmpfs 1.4G 0 1.4G 0% /sys/fs/cgroup
/dev/mapper/centos-root 50G 1.4G 49G 3% /
/dev/mapper/centos-home 46G 33M 46G 1% /home
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 283M 0 283M 0% /run/user/0
/dev/sdb3 50G 11G 29G 27% /mydata
[root@node1 ~]# btrfs device remove /dev/sdb3 /mydata
ERROR: error removing device '/dev/sdb3': unable to go below two \\
devices on raid5
当我想仅留一块硬盘时,又报错了。提示2个设备不能跑raid5,于是我又看是尝试各种数据组织记得的组合。但最终也未能将设备减少到仅剩1个。
在移除设备时,命令执行会卡一下,我想正是卡的时候,btrfs
正将预移除设备上的数据移至其他分区,缩减及扩展逻辑、物理边界。正是这种机制,降低了人为操作失误的风险。
/dev/sdb1
来做测试吧。[root@node1 ~]# mkfs.ext4 -L test /dev/sdb1
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=test
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
1310720 inodes, 5242880 blocks
262144 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2153775104
160 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
[root@node1 ~]# mount /dev/sdb1 /sub1
[root@node1 ~]# ls /sub1
lost+found
[root@node1 ~]# cp /etc/fstab /sub1
[root@node1 ~]# ls /sub1
fstab lost+found
[root@node1 ~]# umount /sub1
[root@node1 ~]# fsck /dev/sdb1
fsck from util-linux 2.23.2
e2fsck 1.42.9 (28-Dec-2013)
test: clean, 12/1310720 files, 126323/5242880 blocks
[root@node1 ~]# btrfs-convert /dev/sdb1
create btrfs filesystem:
blocksize: 4096
nodesize: 16384
features: extref, skinny-metadata (default)
creating ext2 image file
creating btrfs metadatacopy inodes [o] [ 0/ 12]
conversion complete[root@node1 ~]# mount /dev/sdb1 /sub1
[root@node1 ~]# cat /sub1/fstab
#
# /etc/fstab
# Created by anaconda on Sun Feb 16 09:28:27 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root / xfs defaults 0 0
UUID=7b9dd426-d07f-49cb-b500-5f04fa478bb2 /boot xfs defaults 0 0
/dev/mapper/centos-home /home xfs defaults 0 0
/dev/mapper/centos-swap swap swap defaults 0 0
[root@node1 ~]# blkid /dev/sdb1
/dev/sdb1: LABEL="test" UUID="6e04f353-ff27-4ed0-8481-40415bc532d0" UUID_SUB="032eee39-e664-416a-9d3e-267ba48bfbff" TYPE="btrfs"
现在已将/dev/sdb1
转换为了btrfs
。在回退回去,同理步骤为卸载--> 检测--> 回退
。
[root@node1 mydata]# umount /dev/sdb1
[root@node1 mydata]# btrfsck /dev/sdb1
Checking filesystem on /dev/sdb1
UUID: 6e04f353-ff27-4ed0-8481-40415bc532d0
checking extents
checking free space cache
checking fs roots
checking csums
checking root refs
found 518221824 bytes used err is 0
total csum bytes: 505292
total tree bytes: 802816
total fs tree bytes: 49152
total extent tree bytes: 16384
btree space waste bytes: 259806
file data blocks allocated: 517419008
referenced 517419008
[root@node1 ~]# btrfs-convert -r /dev/sdb1
rollback complete
btrfs
检测需要使用btrfsck
命令,完毕。
通过学习btrfs及课后实验的过程中,总结如下:
btrfs
的重要特性如动态伸缩、写时复制、数据校验码、数据组织机制。btrfs
的理解难处。在第一遍做实验时,我用的3块不同空间大小的磁盘完成的,缩减磁盘空间报错后,也认为磁盘空间不一致不利于我寻求数据组织机制规律,毕竟不管哪种raid阵列磁盘空间都取得是最小值,但我认为btrfs
应对这种情况有优化。不过我还是使用了3个20G的分区重新尝试了,能力有限,未能摸清规律。此问题留存了。作者:busyops
邮箱:busyops@outlook.com
本文仅是我的一些简单理解,欢迎随时探讨
最后更新时间为:2021-05-12 23:21:19