120GB-HDD2台によるミラーリング構成で運用中のGLAN Tankだが、昨日ACCESS-LEDが点滅しっぱなしになっている事に気づいた。GLAN Tank専用サポート掲示板を調べるとACCESSランプ高速点滅はRAID異常らしい。
今度はGLAN Tankかよ!と思ったものの、ここで腹を立てたり凹んだりしても何も解決しないので、冷静に現実を受け入れることが肝要だ。
さてsshでログインしてRAIDの状態を確認すると
yano@GLANTANK:~$ cat /proc/mdstatという表示で、hdaが見あたらない事からMasterドライブのRAIDパーティション異常を表している。
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hdb3[1]
119539584 blocks [2/1] [_U]
unused devices: <none>
何はともあれMasterをGLAN Tankから取り外し、SlaveをMasterにして再起動。肝心のデータは維持されておりひと安心。さすがRAIDだ。
さてHDDは消耗品と割り切っているので交換するのはやぶさかでないが、250GBが買える金額で今更120GBを買うのは釈然としないわけで、「さてどうしたもんか?」と頭をひねっていたら、「物理フォーマットで復活する可能性あり」との事だ。そそくさとサブマシンに繋ぎ、PowerMaxで診断をしたあと物理フォーマットを施す。10時間を費やした甲斐あってエラーも無く終了。復活できたっぽい。
はやる気持ちでGLAN Tankに戻して再起動したもののRAIDが再構築される気配は無し。さてどうしたもんかと白箱をいぢる(RAIDの再構築)を参考に手作業でmd0を再構築し始めたが、bootやswapパーティションも設定しとかないと再びHDDを入れ替えるときに立ち上がらないやん…と気がついて再構築を中止。ここはインストールCDのオプションを使うのが正解な気がする。
再び復活したHDDをサブマシンに戻してGLAN TankのインストールCDを再起動してRECOVERYモードでインストールした後、Sleve設定にしてGLAN Tankに戻す。
しかし再起動しても別段変わったところはなく、復活したHDDは認識されていないようだ。結線は問題ないんだけど…と思いつつ、VIVER日記:GLAN TANKあたりを見たら、linuxrcが/dev/hda3のパーティションIDによって処理を分岐しているそうだが、旧Slaveだった今のlinuxrcにはそういう記述は見あたらない。というわけで、復活したHDDを再びMasterに、元のHDDをSlaveに戻して再起動する事に。
RECOVERYモードでインストールしたHDDで起動するにあたってsshの設定とか引き継がれるのか不安だったが、特に問題なし。早速fdiskを見ると
yano@GLANTANK:~$ sudo /sbin/fdisk -l /dev/hdbてな感じでいい具合。Slaveに残されているデータもこれまでと同じようにアクセス可能だ。さてRAIDの状態は?と言うと
Disk /dev/hdb: 122.9 GB, 122942324736 bytes
16 heads, 63 sectors/track, 238216 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
Device Boot Start End Blocks Id System
/dev/hdb1 1 497 250456+ 83 Linux
/dev/hdb2 498 994 250488 82 Linux swap / Solaris
/dev/hdb3 995 238216 119559888 fd Linux raid autodetect
yano@GLANTANK:~$ sudo /sbin/fdisk -l /dev/hda
Disk /dev/hda: 122.9 GB, 122942324736 bytes
16 heads, 63 sectors/track, 238216 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
Device Boot Start End Blocks Id System
/dev/hda1 1 497 250456+ 83 Linux
/dev/hda2 498 994 250488 82 Linux swap / Solaris
/dev/hda3 995 238216 119559888 fd Linux raid autodetect
yano@GLANTANK:~$ cat /proc/mdstatという事で、しっかり再同期が進行しておりこれでひと安心。
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hda3[2] hdb3[1]
119539584 blocks [2/1] [_U]
[>....................] recovery = 3.3% (4063616/119539584) finish=100.1min speed=19220K/sec
unused devices: <none>
その後1時間半ほどで
yano@GLANTANK:~$ cat /proc/mdstatという具合に復活。ACCESS-LEDの点滅も治まりましたとさ。
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hda3[0] hdb3[1]
119539584 blocks [2/2] [UU]
unused devices: <none>
【参照】
●株式会社アイ・オー・データ機器 http://www.iodata.jp/
┗PCパーツブランド『挑戦者』GLAN Tank http://supertank.iodata.jp/
◇GLAN Tank専用サポート掲示板
┗ACCESSランプ高速点滅
●VIVER日記 http://d.hatena.ne.jp/viver/
┗GLAN TANK
●MAXTOR http://www.maxtor.com/
┗SOFTWARE DOWNLOADS:DiamondMax Family