2008/03/28

RHCS: iSCSI, DM-MP, CLVM and GFS・その6・CLVMの設定

DM-MPによって作成されたデバイス/dev/mapper/mpath0上にクラスタ対応の論理ボリューム(logical volume, LV)を作成する。手順は、『Red Hat Cluster: GNBD, CLVM and GFS・その6・CLVMの設定』と同様だ。

『Red Hat Cluster: CentOS 5.1上でRHCSを使ってみる』で紹介したようにConga (Luci & Ricci)を用いてクラスタを構成していれば、クラスタメンバ上ではclvmdが起動されている。
[root@dc3 ~]# chkconfig --list clvmd
clvmd           0:off   1:off   2:on    3:on    4:on    5:on    6:off
[root@dc3 ~]# service clvmd status
clvmd (pid 2023) is running...
active volumes: LogVol00 LogVol01
[root@dc3 ~]#
初期状態では、論理ボリュームマネージャ(logical volume manager, LVM)には、ローカルのもののみが認識されている。
[root@dc3 ~]# pvs
PV         VG         Fmt  Attr PSize PFree
/dev/xvda2 VolGroup00 lvm2 a-   3.88G    0
[root@dc3 ~]# vgs
VG         #PV #LV #SN Attr   VSize VFree
VolGroup00   1   2   0 wz--n- 3.88G    0
[root@dc3 ~]# lvs
LV       VG         Attr   LSize   Origin Snap%  Move Log Copy%
LogVol00 VolGroup00 -wi-ao   3.34G
LogVol01 VolGroup00 -wi-ao 544.00M
[root@dc3 ~]#
以下の通り作業する。

設定ファイルの修正
初期状態では、LVMは、すべてのデバイスを走査する。この状態では、DM-MPによって作成されたデバイス/dev/mapper/mpath0とその背後のデバイス/dev/sd[ab]が走査されるため、同一物理ボリューム(physical volume, PV)、同一ボリュームグループ(volume group, VG)、同一LVが複数回検出されてしまい、都合が悪い。
これを回避するため、/dev/sd[ab]を走査しない様設定する。
以下の作業をdc[123]それぞれで実施する。
[root@dc3 ~]# cd /etc/lvm
[root@dc3 lvm]# cp -p lvm.conf lvm.conf.orig
[root@dc3 lvm]# sed 's/^\( *filter =\).*$/\1 [ "r\/sd.*\/","a\/.*\/" ]/' < lvm.conf.orig > lvm.conf
[root@dc3 lvm]# diff lvm.conf.orig lvm.conf
52c52
<     filter = [ "a/.*/" ]
---
>     filter = [ "r/sd.*/","a/.*/" ]
[root@dc3 lvm]# 
この状態では、まだ新しいPV、VGおよびLVは設定されていないので、強制的にLVMに走査させても、変化はない。
[root@dc3 lvm]# pvscan
PV /dev/xvda2   VG VolGroup00   lvm2 [3.88 GB / 0    free]
Total: 1 [3.88 GB] / in use: 1 [3.88 GB] / in no VG: 0 [0   ]
[root@dc3 lvm]# vgscan
Reading all physical volumes.  This may take a while...
Found volume group "VolGroup00" using metadata type lvm2
[root@dc3 lvm]# lvscan
ACTIVE            '/dev/VolGroup00/LogVol00' [3.34 GB] inherit
ACTIVE            '/dev/VolGroup00/LogVol01' [544.00 MB] inherit
[root@dc3 lvm]#

PVの作成
DM-MPによって生成されたデバイス/dev/mapper/mpath0をPVとして設定する。以下の作業をdc[123]の内の一台で行う(すべてのノードで実行する必要はない)
[root@dc2 lvm]# pvcreate /dev/mapper/mpath0
Physical volume "/dev/mapper/mpath0" successfully created
[root@dc2 lvm]# pvdisplay /dev/mapper/mpath0
--- NEW Physical volume ---
PV Name               /dev/dm-2
VG Name
PV Size               4.00 GB
Allocatable           NO
PE Size (KByte)       0
Total PE              0
Free PE               0
Allocated PE          0
PV UUID               mVdkgs-gUtS-Rz1f-SZhm-NoIr-6kkJ-hQwle1

[root@dc2 lvm]#
他のノードでpvscanを実行すると、このPVが認識される。
[root@dc3 lvm]# pvscan
PV /dev/xvda2   VG VolGroup00   lvm2 [3.88 GB / 0    free]
PV /dev/dm-2                    lvm2 [4.00 GB]
Total: 2 [7.88 GB] / in use: 1 [3.88 GB] / in no VG: 1 [4.00 GB]
[root@dc3 lvm]#

[root@dc1 lvm]# pvscan
PV /dev/xvda2   VG VolGroup00   lvm2 [3.88 GB / 0    free]
PV /dev/dm-2                    lvm2 [4.00 GB]
Total: 2 [7.88 GB] / in use: 1 [3.88 GB] / in no VG: 1 [4.00 GB]
[root@dc1 lvm]#

VGの作成
作成したPVを利用して、新しいVG・VGcDomUs00を作成する。作成時にクラスタ対応の指定(--clustered yオプション)が必要。以下の作業をdc[123]の内の一台で行う(すべてのノードで実行する必要はない)
[root@dc1 lvm]# vgcreate --clustered y VGcDomUs00 /dev/mapper/mpath0
Volume group "VGcDomUs00" successfully created
[root@dc1 lvm]# vgdisplay VGcDomUs00
--- Volume group ---
VG Name               VGcDomUs00
System ID
Format                lvm2
Metadata Areas        1
Metadata Sequence No  1
VG Access             read/write
VG Status             resizable
Clustered             yes
Shared                no
MAX LV                0
Cur LV                0
Open LV               0
Max PV                0
Cur PV                1
Act PV                1
VG Size               4.00 GB
PE Size               4.00 MB
Total PE              1023
Alloc PE / Size       0 / 0
Free  PE / Size       1023 / 4.00 GB
VG UUID               njS90y-VYyX-KUEc-NoH5-sCrn-anXv-4Lgudt

[root@dc1 lvm]#
このVGをclvmdに認識させるため、dc[123]それぞれで、サービスclvmdを再起動する(システムごと再起動してもよい)。
[root@dc3 lvm]# service clvmd restart
Deactivating VG VGcDomUs00:   0 logical volume(s) in volume group "VGcDomUs00" now active
[  OK  ]
Stopping clvm:[  OK  ]
Starting clvmd: [  OK  ]
Activating VGs:   2 logical volume(s) in volume group "VolGroup00" now active
0 logical volume(s) in volume group "VGcDomUs00" now active
[  OK  ]
[root@dc3 lvm]#

LVの作成
VGcDomUs00上にLV・LVGFS00を作成する。以下の作業をdc[123]の内の一台で行う(すべてのノードで実行する必要はない)
[root@dc2 lvm]# lvcreate --extents=1023 --name=LVGFS00 VGcDomUs00
Logical volume "LVGFS00" created
[root@dc2 lvm]# lvs
LV       VG         Attr   LSize   Origin Snap%  Move Log Copy%
LVGFS00  VGcDomUs00 -wi-a-   4.00G
LogVol00 VolGroup00 -wi-ao   3.34G
LogVol01 VolGroup00 -wi-ao 544.00M
[root@dc2 lvm]# lvdisplay /dev/VGcDomUs00/LVGFS00
--- Logical volume ---
LV Name                /dev/VGcDomUs00/LVGFS00
VG Name                VGcDomUs00
LV UUID                6M8L4n-x03W-ydk3-iKFF-79U0-Dt8y-rI5SVL
LV Write Access        read/write
LV Status              available
# open                 0
LV Size                4.00 GB
Current LE             1023
Segments               1
Allocation             inherit
Read ahead sectors     0
Block device           253:3

[root@dc2 lvm]#
他のノードでもこのLVが認識されていることを確認する。
[root@dc3 lvm]# lvs
LV       VG         Attr   LSize   Origin Snap%  Move Log Copy%
LVGFS00  VGcDomUs00 -wi-a-   4.00G
LogVol00 VolGroup00 -wi-ao   3.34G
LogVol01 VolGroup00 -wi-ao 544.00M
[root@dc3 lvm]#

[root@dc1 lvm]# lvs
LV       VG         Attr   LSize   Origin Snap%  Move Log Copy%
LVGFS00  VGcDomUs00 -wi-a-   4.00G
LogVol00 VolGroup00 -wi-ao   3.34G
LogVol01 VolGroup00 -wi-ao 544.00M
[root@dc1 lvm]# 


その1・概要
その2・インストールとクラスタの構成
その3・iSCSIターゲットの設定
その4・iSCSIイニシエータの設定
その5・Device-Mapper Multipathの設定
その6・CLVMの設定
その7・GFS2の設定
その8・Congaでの設定
その9・考察

0 件のコメント: