Archive: 2006/12/17

初雪

今日の福岡は朝からすべてのやる気を奪うような霙交じりの冷たい雨。

エルガーラのイルミネーション
12/15 天神大丸エルガーラ広場にて

昨日も夕方から雨という予報に出動を断念し、昼前に車検前整備を兼ねてCBを洗車。ついでに切れかけているポジションランプを交換しようと、メーターハウジングを外したところネジ止めプラスチックが軽く折れた。(;_;)

午後は名刺の裏を印刷しようとしたらプリンタケーブルが行方不明。あちこち捜索していたら結局押し入れの大掃除をする羽目に。夜中になってようやく洋服掛けにぶら下がっているプリンタケーブルを発見したものの、いざプリントしようとしたらインクカートリッジが無い事に気付いてすこぶるガックリ。orz

さらに輪をかけてGLANTANKのRAID障害と来た日にゃ、ついてないにもほどがある。やる気も失せようというものだ。

今日は正午前後に最低気温4.5℃を記録するというふざけた寒さ、ようやく遅ればせながら初雪が舞ったらしい。こういう週末はウチに引きこもって仕事してるに限るな。

室温は15℃を切った程度だったが、夜になって足下が寒くなってついに我慢の限界。風邪でもひいては洒落にならないので、今年初のガスファンヒーターを起用もやむなし。

GLAN Tank RAID再構築

120GB-HDD2台によるミラーリング構成で運用中のGLAN Tankだが、昨日ACCESS-LEDが点滅しっぱなしになっている事に気づいた。GLAN Tank専用サポート掲示板を調べるとACCESSランプ高速点滅RAID異常らしい。

今度はGLAN Tankかよ!と思ったものの、ここで腹を立てたり凹んだりしても何も解決しないので、冷静に現実を受け入れることが肝要だ。

さてsshでログインしてRAIDの状態を確認すると

yano@GLANTANK:~$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hdb3[1]
119539584 blocks [2/1] [_U]

unused devices:
という表示で、hdaが見あたらない事からMasterドライブのRAIDパーティション異常を表している。

何はともあれMasterをGLAN Tankから取り外し、SlaveをMasterにして再起動。肝心のデータは維持されておりひと安心。さすがRAIDだ。

さてHDDは消耗品と割り切っているので交換するのはやぶさかでないが、250GBが買える金額で今更120GBを買うのは釈然としないわけで、「さてどうしたもんか?」と頭をひねっていたら、「物理フォーマットで復活する可能性あり」との事だ。そそくさとサブマシンに繋ぎ、PowerMaxで診断をしたあと物理フォーマットを施す。10時間を費やした甲斐あってエラーも無く終了。復活できたっぽい。

はやる気持ちでGLAN Tankに戻して再起動したもののRAIDが再構築される気配は無し。さてどうしたもんかと白箱をいぢる(RAIDの再構築)を参考に手作業でmd0を再構築し始めたが、bootやswapパーティションも設定しとかないと再びHDDを入れ替えるときに立ち上がらないやん…と気がついて再構築を中止。ここはインストールCDのオプションを使うのが正解な気がする。

再び復活したHDDをサブマシンに戻してGLAN TankのインストールCDを再起動してRECOVERYモードでインストールした後、Sleve設定にしてGLAN Tankに戻す。

しかし再起動しても別段変わったところはなく、復活したHDDは認識されていないようだ。結線は問題ないんだけど…と思いつつ、VIVER日記:GLAN TANKあたりを見たら、linuxrcが/dev/hda3のパーティションIDによって処理を分岐しているそうだが、旧Slaveだった今のlinuxrcにはそういう記述は見あたらない。というわけで、復活したHDDを再びMasterに、元のHDDをSlaveに戻して再起動する事に。

RECOVERYモードでインストールしたHDDで起動するにあたってsshの設定とか引き継がれるのか不安だったが、特に問題なし。早速fdiskを見ると

yano@GLANTANK:~$ sudo /sbin/fdisk -l /dev/hdb

Disk /dev/hdb: 122.9 GB, 122942324736 bytes
16 heads, 63 sectors/track, 238216 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes

Device Boot Start End Blocks Id System
/dev/hdb1 1 497 250456+ 83 Linux
/dev/hdb2 498 994 250488 82 Linux swap / Solaris
/dev/hdb3 995 238216 119559888 fd Linux raid autodetect
yano@GLANTANK:~$ sudo /sbin/fdisk -l /dev/hda

Disk /dev/hda: 122.9 GB, 122942324736 bytes
16 heads, 63 sectors/track, 238216 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes

Device Boot Start End Blocks Id System
/dev/hda1 1 497 250456+ 83 Linux
/dev/hda2 498 994 250488 82 Linux swap / Solaris
/dev/hda3 995 238216 119559888 fd Linux raid autodetect
てな感じでいい具合。Slaveに残されているデータもこれまでと同じようにアクセス可能だ。さてRAIDの状態は?と言うと
yano@GLANTANK:~$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid5]
md0 : active raid1 hda3[2] hdb3[1]
119539584 blocks [2/1] [_U]
[>....................] recovery = 3.3% (4063616/119539584) finish=100.1min speed=19220K/sec
unused devices:
という事で、しっかり再同期が進行しておりこれでひと安心。