GLAN Tank RAID再構築

120GB-HDD2台によるミラーリング構成で運用中のGLAN Tankだが、昨日ACCESS-LEDが点滅しっぱなしになっている事に気づいた。GLAN Tank専用サポート掲示板を調べるとACCESSランプ高速点滅はRAID異常らしい。

今度はGLAN Tankかよ!と思ったものの、ここで腹を立てたり凹んだりしても何も解決しないので、冷静に現実を受け入れることが肝要だ。

さてsshでログインしてRAIDの状態を確認すると

yano@GLANTANK:~$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hdb3[1]
      119539584 blocks [2/1] [**_U**]
unused devices: <none>

という表示で、hdaが見あたらない事からMasterドライブのRAIDパーティション異常を表している。

何はともあれMasterをGLAN Tankから取り外し、SlaveをMasterにして再起動。肝心のデータは維持されておりひと安心。さすがRAIDだ。

さてHDDは消耗品と割り切っているので交換するのはやぶさかでないが、250GBが買える金額で今更120GBを買うのは釈然としないわけで、「さてどうしたもんか?」と頭をひねっていたら、**「物理フォーマットで復活する可能性あり」**との事だ。そそくさとサブマシンに繋ぎ、PowerMaxで診断をしたあと物理フォーマットを施す。10時間を費やした甲斐あってエラーも無く終了。復活できたっぽい。

はやる気持ちでGLAN Tankに戻して再起動したもののRAIDが再構築される気配は無し。さてどうしたもんかと白箱をいぢる(RAIDの再構築)を参考に手作業でmd0を再構築し始めたが、bootやswapパーティションも設定しとかないと再びHDDを入れ替えるときに立ち上がらないやん…と気がついて再構築を中止。ここはインストールCDのオプションを使うのが正解な気がする。

再び復活したHDDをサブマシンに戻してGLAN TankのインストールCDを再起動してRECOVERYモードでインストールした後、Sleve設定にしてGLAN Tankに戻す。

しかし再起動しても別段変わったところはなく、復活したHDDは認識されていないようだ。結線は問題ないんだけど…と思いつつ、VIVER日記:GLAN TANKあたりを見たら、linuxrcが/dev/hda3のパーティションIDによって処理を分岐しているそうだが、旧Slaveだった今のlinuxrcにはそういう記述は見あたらない。というわけで、復活したHDDを再びMasterに、元のHDDをSlaveに戻して再起動する事に。

RECOVERYモードでインストールしたHDDで起動するにあたってsshの設定とか引き継がれるのか不安だったが、特に問題なし。早速fdiskを見ると

yano@GLANTANK:~$ sudo /sbin/fdisk -l /dev/hdb
Disk /dev/hdb: 122.9 GB, 122942324736 bytes
16 heads, 63 sectors/track, 238216 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
   Device Boot      Start         End      Blocks   Id  System
/dev/hdb1               1         497      250456+  83  Linux
/dev/hdb2             498         994      250488   82  Linux swap / Solaris
/dev/hdb3             995      238216   119559888   fd  Linux raid autodetect
yano@GLANTANK:~$ sudo /sbin/fdisk -l /dev/hda
Disk /dev/hda: 122.9 GB, 122942324736 bytes
16 heads, 63 sectors/track, 238216 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
   Device Boot      Start         End      Blocks   Id  System
/dev/hda1               1         497      250456+  83  Linux
/dev/hda2             498         994      250488   82  Linux swap / Solaris
/dev/hda3             995      238216   119559888   fd  Linux raid autodetect

てな感じでいい具合。Slaveに残されているデータもこれまでと同じようにアクセス可能だ。さてRAIDの状態は?と言うと

yano@GLANTANK:~$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hda3[2] hdb3[1]
      119539584 blocks [2/1] [**_U**]
      [>....................]  **recovery =  3.3% (4063616/119539584) finish=100.1min speed=19220K/sec**
unused devices: <none>

という事で、しっかり再同期が進行しておりこれでひと安心。

その後1時間半ほどで

yano@GLANTANK:~$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hda3[0] hdb3[1]
      119539584 blocks [2/2] [**UU**]
unused devices: <none>

という具合に復活。ACCESS-LEDの点滅も治まりましたとさ。

参照

株式会社アイ・オー・データ機器 http://www.iodata.jp/

VIVER日記 http://d.hatena.ne.jp/viver/

MAXTOR http://www.maxtor.com/