まず、CongaはGNBDを理解しないことに注意しよう。例えば、あるマシンをGNBDサーバ・クライアントを設定できない。従って、GNBDサーバ・クライアントの設定は、『Red Hat Cluster: GNBD, CLVM and GFS・その5・GNBDの設定』の通り行う必要がある。
また、GNBDクライアントにインポートされているGNBDデバイスをディスクとして認識しない(少なくともCentOS 5.1の現バージョンでは)。従って、CongaからGNBDによりインポートしたブロックデバイスを物理ボリューム(physical volume, PV)として設定できない。Conga上での作業を始める前に、『Red Hat Cluster: GNBD, CLVM and GFS・その6・CLVMの設定』に従って、当該ブロックデバイスをPVとして設定する必要がある。
では、実際に作業してみよう。既に、
fs1
をGNBDサーバ、dc[123]
をGNBDクライアントとして設定済みとする。『Red Hat Cluster: CentOS 5.1上でRHCSを使ってみる・その6・クラスタcDom0sの生成』に従い、Luci管理画面にログインした後、[storage」タブを選択する。
dc1.xencluster
を選択する。
/dev/gnbd0
が認識されていないことに注意。念のため、[Reprobe Storage]を押下し、再確認させる。「Probing Storage」画面が表示された後、元の画面に戻る。

/dev/gnbd0
が認識されていない。ここで、
/dev/gnbd0
をコマンドラインからPVとして設定する。この作業は、dc[123]
の内のいずれから行う。[root@dc1 ~]# pvcreate /dev/gnbd0 Physical volume "/dev/gnbd0" successfully created [root@dc1 ~]#再びLicciの画面に戻り、[storage]タブ→[dc1.xencluster]→[Volume Groups]→[New Volume Group]を選択する。

/dev/gnbd0
が現れているのが解る。この画面に対して、[Volume Group Name]にVGcDomUs00を入力、[Extent Size]に32MB、[Clustered]にtrueを選択し、[Select 1 Physical Volume]の欄で
/dev/gnbd0
をチェックした後、[Create]ボタンを押下する。確認のダイアログが表示される。



/mnt/gfs00
を入力、[Mount]および[List in /etc/fstab]を共にtrueを選択、[Number Of Journals]に3を入力後、[Create]ボタンを押下する。確認のダイアログが表示される。


dc1
のコンソールには、次のようなエラーが表示される。Traceback (most recent call last): File "/usr/lib/python2.4/site-packages/setroubleshoot/analyze.py", line 370, in auto_save_callback self.save() File "/usr/lib/python2.4/site-packages/setroubleshoot/analyze.py", line 351, in save self.sigs.write_xml('sigs', self.filepath) File "/usr/lib/python2.4/site-packages/setroubleshoot/signature.py", line 570, in write_xml f.write(self.get_xml_text_doc(obj_name)) File "/usr/lib/python2.4/site-packages/setroubleshoot/signature.py", line 529, in get_xml_text_doc doc = self.get_xml_doc(obj_name) File "/usr/lib/python2.4/site-packages/setroubleshoot/signature.py", line 524, in get_xml_doc root = self.get_xml_nodes(doc, obj_name) File "/usr/lib/python2.4/site-packages/setroubleshoot/signature.py", line 599, in get_xml_nodes list.addChild(item.get_xml_nodes(doc, item_name)) File "/usr/lib/python2.4/site-packages/setroubleshoot/signature.py", line 625, in get_xml_nodes root.newChild(None, name, value) File "/usr/lib/python2.4/site-packages/libxml2.py", line 3217, in newChild ret = libxml2mod.xmlNewChild(self._o, ns__o, name, content) TypeError: xmlNewChild() argument 4 must be string without null bytes or None, not str設定は正しく行われているようだ。
[root@dc1 ~]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% LVGFS00 VGcDomUs00 -wi-ao 3.94G LogVol00 VolGroup00 -wi-ao 3.34G LogVol01 VolGroup00 -wi-ao 544.00M [root@dc1 ~]# vgs VG #PV #LV #SN Attr VSize VFree VGcDomUs00 1 1 0 wz--nc 3.97G 32.00M VolGroup00 1 2 0 wz--n- 3.88G 0 [root@dc1 ~]# pvs PV VG Fmt Attr PSize PFree /dev/gnbd0 VGcDomUs00 lvm2 a- 3.97G 32.00M /dev/xvda2 VolGroup00 lvm2 a- 3.88G 0 [root@dc1 ~]# mount /dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) /dev/xvda1 on /boot type ext3 (rw) tmpfs on /dev/shm type tmpfs (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw) none on /sys/kernel/config type configfs (rw) /dev/mapper/VGcDomUs00-LVGFS00 on /mnt/gfs00 type gfs2 (rw,hostdata=jid=0:id=196611:first=1) [root@dc1 ~]# cat /etc/fstab /dev/VolGroup00/LogVol00 / ext3 defaults 1 1 LABEL=/boot /boot ext3 defaults 1 2 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 /dev/VolGroup00/LogVol01 swap swap defaults 0 0 /dev/VGcDomUs00/LVGFS00 /mnt/gfs00 gfs2 defaults 0 0 [root@dc1 ~]#このとき、他のノード上からも、LVGFS00やVGcDomUs00を確認できる。
[root@dc2 ~]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% LVGFS00 VGcDomUs00 -wi-a- 3.94G LogVol00 VolGroup00 -wi-ao 3.34G LogVol01 VolGroup00 -wi-ao 544.00M [root@dc2 ~]# vgs VG #PV #LV #SN Attr VSize VFree VGcDomUs00 1 1 0 wz--nc 3.97G 32.00M VolGroup00 1 2 0 wz--n- 3.88G 0 [root@dc2 ~]# pvs PV VG Fmt Attr PSize PFree /dev/gnbd0 VGcDomUs00 lvm2 a- 3.97G 32.00M /dev/xvda2 VolGroup00 lvm2 a- 3.88G 0 [root@dc2 ~]#ただし、マウントされていないので、LVGFS00のoフラグが立っていないことに注意。
続いて、残りのノード
dc[23]
に対して、LVGFS00をマウントするよう設定する。Luci管理画面から、[storage]タブを選び、残りのノードを選択する。
[VGcDomUs00]→[Logical Volumes]→[LVGFS00]を選択する。

/mnt/gfs00
を入力し、[Apply]ボタンを押下する。確認のダイアログが表示される。


dc1
のときと同様の「Tracebak…」というメッセージが表示されるが、正しく設定されているようだ。[root@dc2 ~]# lvs LV VG Attr LSize Origin Snap% Move Log Copy% LVGFS00 VGcDomUs00 -wi-ao 3.94G LogVol00 VolGroup00 -wi-ao 3.34G LogVol01 VolGroup00 -wi-ao 544.00M [root@dc2 ~]# vgs VG #PV #LV #SN Attr VSize VFree VGcDomUs00 1 1 0 wz--nc 3.97G 32.00M VolGroup00 1 2 0 wz--n- 3.88G 0 [root@dc2 ~]# pvs PV VG Fmt Attr PSize PFree /dev/gnbd0 VGcDomUs00 lvm2 a- 3.97G 32.00M /dev/xvda2 VolGroup00 lvm2 a- 3.88G 0 [root@dc2 ~]# mount /dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) /dev/xvda1 on /boot type ext3 (rw) tmpfs on /dev/shm type tmpfs (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw) none on /sys/kernel/config type configfs (rw) /dev/mapper/VGcDomUs00-LVGFS00 on /mnt/gfs00 type gfs2 (rw,hostdata=jid=1:id=196611:first=0) [root@dc2 ~]#マウントされたため、LVGFS00のoフラグが立ったことに注意。
解説: その1、その2、その3
kernel-xenにバグか?
その4・CentOS 5.1での注意点
その5・GNBDの設定
その6・CLVMの設定
その7・GFS2の設定
その8・Congaからの設定
その9・ベンチマーク
その10・考察と予告
0 件のコメント:
コメントを投稿