2014年06月04日
このエントリーをはてなブックマークに追加
困ったのでメモ。

HDD1 が故障しました。マニュアルにあるとおり、安全な作業を行ったつもりでした。
1. QNAP シャットダウン
2. Disk 交換
3. 再起動

ここで起動しなくなりました。

そこで、
・再度 QNAP をシャットダウン
・HDD1 を取り外す
・起動

これで QNAP にアクセスすることはできるようになりました。

この状態で HDD1 を追加。認識し、HDDは正常となっています。
しかしリビルドは開始されません。

何をやってもダメだったので、Linuxからコマンドで行いました。

fdisk でパーティションの状態を確認すると、以下の通りでした。

# fdisk /dev/sdb
/dev/sdb1 1 66 530125 83 Linux
/dev/sdb2 67 132 530142 83 Linux
/dev/sdb3 133 60738 486817693 83 Linux
/dev/sdb4 60739 60800 498012 83 Linux

そこで 今回追加した HDD(/dev/sda) を上記と同じようにパーティションで区切ります。

/dev/sda1 1 66 530141 fd Linux raid autodetect
/dev/sda2 67 132 530145 fd Linux raid autodetect
/dev/sda3 133 60738 486817695 fd Linux raid autodetect
/dev/sda4 60739 60800 498015 fd Linux raid autodetect

RAID の状況を確認します
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md0 : active raid1 sdb3[1]
486817600 blocks [2/1] [_U]

md2 : active raid1 sdb2[0]
530048 blocks [2/1] [U_]

md13 : active raid1 sdb4[1]
458880 blocks [2/1] [_U]
bitmap: 48/57 pages [192KB], 4KB chunk

md9 : active raid1 sdb1[1]
530048 blocks [2/1] [_U]
bitmap: 61/65 pages [244KB], 4KB chunk

unused devices:

デグレートしているので、パーティションを追加します。
mdadm /dev/md0 -a /dev/sda3
mdadm /dev/md2 -a /dev/sda2
mdadm /dev/md13 -a /dev/sda4 ※これはエラーになる
mdadm /dev/md9 -a /dev/sda1

とりあえずこれでリビルドが開始されますが、再起動をします。
※もしくはデータ領域(md0)ぐらいはリビルドが完了するのを待っても良いかもしれません。

再起動をすると、以下の通りでした。
md13 は上記のコマンドはだめでしたが、なぜかうまくいっているようです。。。

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md0 : active raid1 sdb3[1] sda3[2]
486817600 blocks [2/1] [_U]
[>....................] recovery = 0.9% (4738752/486817600) finish=170.8min speed=47024K/sec

md13 : active raid1 sda4[0] sdb4[1]
458880 blocks [2/2] [UU]
bitmap: 5/57 pages [20KB], 4KB chunk

md9 : active raid1 sdb1[1] sda1[0]
530048 blocks [2/2] [UU]
bitmap: 13/65 pages [52KB], 4KB chunk

md2 : active raid1 sdb2[2] sda2[0]
530048 blocks [2/1] [U_]
resync=DELAYED



※そのほかの確認
md13が変だったとき
# mdadm --detail --scan
ARRAY /dev/md9 level=raid1 num-devices=2 spares=1 UUID=eb0d134f:9914ed36:bb000cc5:a6f2f3c1
ARRAY /dev/sda4 level=raid1 num-devices=2 UUID=9dfec228:389d1911:8867890f:2b011e21
ARRAY /dev/md2 level=raid1 num-devices=2 spares=1 UUID=ff9c4df9:6887a455:7606b111:c127216d
ARRAY /dev/md0 level=raid1 num-devices=2 spares=1 UUID=3e61385a:5d343855:42de08be:07a12c3f

md13が正常になったとき
# mdadm --detail --scan
ARRAY /dev/md2 level=raid1 num-devices=2 spares=1 UUID=a9143142:3a4baaf5:f1b11b9b:58fcd32c
ARRAY /dev/md9 level=raid1 num-devices=2 UUID=eb0d134f:9914ed36:bb000cc5:a6f2f3c1
ARRAY /dev/md13 level=raid1 num-devices=2 UUID=9dfec228:389d1911:8867890f:2b011e21
ARRAY /dev/md0 level=raid1 num-devices=2 spares=1 UUID=3e61385a:5d343855:42de08be:07a12c3f
※現在リビルド中なのか spares の値がないところも・・。

ということで、これでしばらく様子を見てみます。ここまでくるのに4時間かかった!


stock_value at 12:35│Comments(0)TrackBack(0)技術:2014年 

トラックバックURL

この記事にコメントする

名前:
URL:
  情報を記憶: 評価: 顔