/dev/mapper/mpath0
上にクラスタ対応の論理ボリューム(logical volume, LV)を作成する。手順は、『Red Hat Cluster: GNBD, CLVM and GFS・その6・CLVMの設定』と同様だ。『Red Hat Cluster: CentOS 5.1上でRHCSを使ってみる』で紹介したようにConga (Luci & Ricci)を用いてクラスタを構成していれば、クラスタメンバ上ではclvmdが起動されている。
[root@dc3 ~]# chkconfig --list clvmd clvmd 0:off 1:off 2:on 3:on 4:on 5:on 6:off [root@dc3 ~]# service clvmd status clvmd (pid 2023) is running... active volumes: LogVol00 LogVol01 [root@dc3 ~]#初期状態では、論理ボリュームマネージャ(logical volume manager, LVM)には、ローカルのもののみが認識されている。
[root@dc3 ~]# pvs PV VG Fmt Attr PSize PFree /dev/xvda2 VolGroup00 lvm2 a- 3.88G 0 [root@dc3 ~]# vgs VG #PV #LV #SN Attr VSize VFree VolGroup00 1 2 0 wz--n- 3.88G 0 [root@dc3 ~]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% LogVol00 VolGroup00 -wi-ao 3.34G LogVol01 VolGroup00 -wi-ao 544.00M [root@dc3 ~]#以下の通り作業する。
設定ファイルの修正
初期状態では、LVMは、すべてのデバイスを走査する。この状態では、DM-MPによって作成されたデバイス
/dev/mapper/mpath0
とその背後のデバイス/dev/sd[ab]
が走査されるため、同一物理ボリューム(physical volume, PV)、同一ボリュームグループ(volume group, VG)、同一LVが複数回検出されてしまい、都合が悪い。これを回避するため、
/dev/sd[ab]
を走査しない様設定する。以下の作業を
dc[123]
それぞれで実施する。[root@dc3 ~]# cd /etc/lvm [root@dc3 lvm]# cp -p lvm.conf lvm.conf.orig [root@dc3 lvm]# sed 's/^\( *filter =\).*$/\1 [ "r\/sd.*\/","a\/.*\/" ]/' < lvm.conf.orig > lvm.conf [root@dc3 lvm]# diff lvm.conf.orig lvm.conf 52c52 < filter = [ "a/.*/" ] --- > filter = [ "r/sd.*/","a/.*/" ] [root@dc3 lvm]#この状態では、まだ新しいPV、VGおよびLVは設定されていないので、強制的にLVMに走査させても、変化はない。
[root@dc3 lvm]# pvscan PV /dev/xvda2 VG VolGroup00 lvm2 [3.88 GB / 0 free] Total: 1 [3.88 GB] / in use: 1 [3.88 GB] / in no VG: 0 [0 ] [root@dc3 lvm]# vgscan Reading all physical volumes. This may take a while... Found volume group "VolGroup00" using metadata type lvm2 [root@dc3 lvm]# lvscan ACTIVE '/dev/VolGroup00/LogVol00' [3.34 GB] inherit ACTIVE '/dev/VolGroup00/LogVol01' [544.00 MB] inherit [root@dc3 lvm]#
PVの作成
DM-MPによって生成されたデバイス
/dev/mapper/mpath0
をPVとして設定する。以下の作業をdc[123]
の内の一台で行う(すべてのノードで実行する必要はない)。[root@dc2 lvm]# pvcreate /dev/mapper/mpath0 Physical volume "/dev/mapper/mpath0" successfully created [root@dc2 lvm]# pvdisplay /dev/mapper/mpath0 --- NEW Physical volume --- PV Name /dev/dm-2 VG Name PV Size 4.00 GB Allocatable NO PE Size (KByte) 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID mVdkgs-gUtS-Rz1f-SZhm-NoIr-6kkJ-hQwle1 [root@dc2 lvm]#他のノードでpvscanを実行すると、このPVが認識される。
[root@dc3 lvm]# pvscan PV /dev/xvda2 VG VolGroup00 lvm2 [3.88 GB / 0 free] PV /dev/dm-2 lvm2 [4.00 GB] Total: 2 [7.88 GB] / in use: 1 [3.88 GB] / in no VG: 1 [4.00 GB] [root@dc3 lvm]# [root@dc1 lvm]# pvscan PV /dev/xvda2 VG VolGroup00 lvm2 [3.88 GB / 0 free] PV /dev/dm-2 lvm2 [4.00 GB] Total: 2 [7.88 GB] / in use: 1 [3.88 GB] / in no VG: 1 [4.00 GB] [root@dc1 lvm]#
VGの作成
作成したPVを利用して、新しいVG・VGcDomUs00を作成する。作成時にクラスタ対応の指定(
--clustered y
オプション)が必要。以下の作業をdc[123]
の内の一台で行う(すべてのノードで実行する必要はない)。[root@dc1 lvm]# vgcreate --clustered y VGcDomUs00 /dev/mapper/mpath0 Volume group "VGcDomUs00" successfully created [root@dc1 lvm]# vgdisplay VGcDomUs00 --- Volume group --- VG Name VGcDomUs00 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 1 VG Access read/write VG Status resizable Clustered yes Shared no MAX LV 0 Cur LV 0 Open LV 0 Max PV 0 Cur PV 1 Act PV 1 VG Size 4.00 GB PE Size 4.00 MB Total PE 1023 Alloc PE / Size 0 / 0 Free PE / Size 1023 / 4.00 GB VG UUID njS90y-VYyX-KUEc-NoH5-sCrn-anXv-4Lgudt [root@dc1 lvm]#このVGをclvmdに認識させるため、
dc[123]
それぞれで、サービスclvmdを再起動する(システムごと再起動してもよい)。[root@dc3 lvm]# service clvmd restart Deactivating VG VGcDomUs00: 0 logical volume(s) in volume group "VGcDomUs00" now active [ OK ] Stopping clvm:[ OK ] Starting clvmd: [ OK ] Activating VGs: 2 logical volume(s) in volume group "VolGroup00" now active 0 logical volume(s) in volume group "VGcDomUs00" now active [ OK ] [root@dc3 lvm]#
LVの作成
VGcDomUs00上にLV・LVGFS00を作成する。以下の作業を
dc[123]
の内の一台で行う(すべてのノードで実行する必要はない)。[root@dc2 lvm]# lvcreate --extents=1023 --name=LVGFS00 VGcDomUs00
Logical volume "LVGFS00" created
[root@dc2 lvm]# lvs
LV VG Attr LSize Origin Snap% Move Log Copy%
LVGFS00 VGcDomUs00 -wi-a- 4.00G
LogVol00 VolGroup00 -wi-ao 3.34G
LogVol01 VolGroup00 -wi-ao 544.00M
[root@dc2 lvm]# lvdisplay /dev/VGcDomUs00/LVGFS00
--- Logical volume ---
LV Name /dev/VGcDomUs00/LVGFS00
VG Name VGcDomUs00
LV UUID 6M8L4n-x03W-ydk3-iKFF-79U0-Dt8y-rI5SVL
LV Write Access read/write
LV Status available
# open 0
LV Size 4.00 GB
Current LE 1023
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 253:3
[root@dc2 lvm]#
他のノードでもこのLVが認識されていることを確認する。[root@dc3 lvm]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% LVGFS00 VGcDomUs00 -wi-a- 4.00G LogVol00 VolGroup00 -wi-ao 3.34G LogVol01 VolGroup00 -wi-ao 544.00M [root@dc3 lvm]# [root@dc1 lvm]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% LVGFS00 VGcDomUs00 -wi-a- 4.00G LogVol00 VolGroup00 -wi-ao 3.34G LogVol01 VolGroup00 -wi-ao 544.00M [root@dc1 lvm]#
『その1・概要』
『その2・インストールとクラスタの構成』
『その3・iSCSIターゲットの設定』
『その4・iSCSIイニシエータの設定』
『その5・Device-Mapper Multipathの設定』
『その6・CLVMの設定』
『その7・GFS2の設定』
『その8・Congaでの設定』
『その9・考察』
0 件のコメント:
コメントを投稿