如果您所使用的iSCSI共享卷容量不足,您可以对其进行扩容操作,以满足您的容量使用需求。
通过管理控制台扩容成功后,仅扩大了iSCSI共享卷的存储容量,您还需要手动重启实例,并于重启后在实例中扩展分区和文件系统。
本文中的示例以使用CentOS 7.6操作系统、20GB的共享盘设备的云主机为例,为您展示Linux系统扩容iSCSI共享卷的操作。
1. 控制台扩容
登录紫光云控制台。
在左侧导航栏中依次选择“产品与服务 > 存储 > 云硬盘”。
在云硬盘列表页面,选择您想要扩容的iSCSI共享卷,扩容到指定容量。本文中将其从20GB扩容到40GB。
2. 扩展磁盘分区和文件系统
远程连接到已经挂载扩容后的iSCSI共享卷的实例。
查看挂载信息,示例如下:
root@i-CBO9ePVtHP:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 20G 0 disk └─360002ac0000000000000154400022fc7 252:0 0 20G 0 mpath /mnt sdb 8:16 0 20G 0 disk └─360002ac0000000000000154400022fc7 252:0 0 20G 0 mpath /mnt sr0 11:0 1 384K 0 rom vda 253:0 0 40G 0 disk └─vda1 253:1 0 40G 0 part / |
可见多路径对应盘符为sda和sdb,多路径设备为/dev/mapper/360002ac0000000000000154400022fc7。
选择共享卷的盘符设备,刷新盘符以及多路径设备到最新的容量。
echo 1 > /sys/block/sda/device/rescan echo 1 > /sys/block/sdb/device/rescan ll /dev/disk/by-id/dm-uuid-mpath-360002ac000000000000038a3000250be |
刷新multipath多路径到最新的容量,找到多路径设备对应的盘符为 /dev/dm-0。
root@i-CBO9ePVtHP:~# ll /dev/mapper/360002ac0000000000000154400022fc7 lrwxrwxrwx 1 root root 7 Sep 18 17:55 /dev/mapper/360002ac0000000000000154400022fc7 -> ../dm-0 |
扩容多路径到最新的容量。
root@i-CBO9ePVtHP:~# multipathd resize map /dev/dm-0 ok |
根据实际的共享卷展开文件系统,如 ext4 文件使用 resize2fs, xfs 文件系统使用 xfs_growfs,如下示例为将扩展的部分完全分配给多路径设备。
root@i-CBO9ePVtHP:~# resize2fs /dev/mapper/360002ac0000000000000154400022fc7 resize2fs 1.42.13 (17-May-2015) Filesystem at /dev/mapper/360002ac0000000000000154400022fc7 is mounted on /mnt; on-line resizing required old_desc_blocks = 2, new_desc_blocks = 3 The filesystem on /dev/mapper/360002ac0000000000000154400022fc7 is now 10485760 (4k) blocks long. |
扩容完成后如下所示:
root@i-CBO9ePVtHP:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 40G 0 disk └─360002ac0000000000000154400022fc7 252:0 0 40G 0 mpath /mnt sdb 8:16 0 40G 0 disk └─360002ac0000000000000154400022fc7 252:0 0 40G 0 mpath /mnt sr0 11:0 1 384K 0 rom vda 253:0 0 40G 0 disk └─vda1 253:1 0 40G 0 part / root@i-CBO9ePVtHP:~# df –hT Filesystem Type Size Used Avail Use% Mounted on udev devtmpfs 978M 0 978M 0% /dev tmpfs tmpfs 200M 21M 179M 11% /run /dev/vda1 ext4 40G 1.8G 36G 5% / tmpfs tmpfs 998M 0 998M 0% /dev/shm tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs tmpfs 998M 0 998M 0% /sys/fs/cgroup tmpfs tmpfs 200M 0 200M 0% /run/user/0 /dev/mapper/360002ac0000000000000154400022fc7 ext4 40G 48M 38G 1% /mnt |