2008/03/17

Red Hat Cluster: GNBD, CLVM and GFS・その10・考察と予告

今まで調査・実証してきた『GNBD, CLVM and GFS』について軽く考察してみたい。

今回の調査で、CentOS 5.1およびConga(Red Hat Cluster, Luci & Ricci)を用いて、GNBDをバックエンドとするクラスタ論理ボリューム(logical volume, LV)上でGFSを利用したファイル共有を実現できることが判った。ただし以下の点に注意する必要があった。
  1. GNBDには、起動スクリプト(init script)が準備されていない(『5・GNBDの設定』)。
  2. CongaはGNBDによるブロックデバイスを認識しない(『その8・Congaからの設定』)。
また、カーネルのバージョンによっては、うまく動かない場合もあったことを付け加えたい。

その後の検証で、次のことも判った。
  1. GNBDをバックエンドとすると、device-mapper multipath (DM-MP)を構成できない。
GNBDクライアントは、同一GNBD名のブロックデバイスを複数インポートできない。GNBDサーバは、どのネットワークインターフェースに対しても、同一GNBD名でブロックデバイスをエクスポートする。つまり、GNBDクライアント・サーバが複数のネットワークインターフェースを持っていてもこれを有効に活用することができない(汚い技を使えば可能かもしれないが)
ただし、一つのストレージに複数のホストバスアダプタを付け、複数のGNBDサーバから同一のブロックデバイスを異なる名前でエクスポートすれば、GNBDをバックエンドとするDM-MPを構成することは可能。この場合は、それなりのハードウェアが必要だし、設定も複雑になる。

そこで次は、iSCSI、DM-MP、CLVMおよびGFSを使ったファイル共有について検証したい。バックエンドにiSCSIを使う場合、サーバ側で同一デバイスを複数のネットワークインターフェースからエクスポートし、クライアント側でそれらを複数のインターフェースから別々にインポートすることが可能。また、これをDM-MPで扱うことも容易。
乞うご期待。

解説: その1その2その3
kernel-xenにバグか?
その4・CentOS 5.1での注意点
その5・GNBDの設定
その6・CLVMの設定
その7・GFS2の設定
その8・Congaからの設定
その9・ベンチマーク
その10・考察と予告

0 件のコメント: