> Для примера создадим Btrfs-раздел размером 1 Тб, включающий в себя два диска
> по 500 Гб (/dev/sdb и /dev/sdc):
> # mkfs.btrfs /dev/sdb /dev/sdc
> adding device /dev/sdc id 2
> fs created label (null) on /dev/sdb
> nodesize 4096 leafsize 4096 sectorsize 4096 size 10.00GB Э... 2 диска по 500Гб, а mkfs говорит 10.00GB (причем mkfs имеет ввиду конкретно 10GB в этом месте)... опечатка?
>[оверквотинг удален]
> devid 2 size 5.00GB used 1.51GB
> path /dev/sdc
> Смонтируем созданную ФС:
> # mount /dev/sdb /mnt
> монтировать следует первое устройство /dev/sdb, при попытке дополнительно смонтировать
> /dev/sdc будет выдано предупреждение:
> # mount /dev/sdc /mnt
> mount: /dev/sdc already mounted or /mnt busy
> mount: according to mtab, /dev/sdb is already mounted on
> /mnt
все не так. монтировать лучше по uuid или label'у. если монтировать за какое-то из устройств, то перед этим нужно выполнить btrfs d s (причем если устройство - том lvm - то после активации нужно опять btrfs d s сделать, а то может не смонтировать).
если монтировать за устройство, то вообще лотерея.
>[оверквотинг удален]
> Avail Use% Mounted on
> /dev/sdb
> 10G 56K 8.0G 1% /mnt
> # btrfs filesystem df /mnt
> Data, RAID0: total=1.00GB, used=0.00
> Data: total=8.00MB, used=0.00
> System, RAID1: total=8.00MB, used=4.00KB
> System: total=4.00MB, used=0.00
> Metadata, RAID1: total=1.00GB, used=24.00KB
> Metadata: total=8.00MB, used=0.00
ага - данные вообще никакие ни с чем не сходятся :)
причем это даже на больших объемах - в самый неожиданный момент могут полезть ошибки что места не хватает.
>[оверквотинг удален]
> -
> 10G 201M
> 7.8G 3% /mnt/btrfs/subbasefoo
> # cp --reflink rantest.tst clonetest.tst
> # df -h .
> Filesystem Size Used
> Avail Use% Mounted on
> -
> 10G 201M
> 7.8G 3% /mnt/btrfs/subbasefoo
прикольная штука, хоть и малопрактичная :)