linux – MDADM RAID5アレイを再起動するには?

linux mdadm raid-5 software-raid ubuntu-12.04

サーバーを解体して再接続したばかりの家に引っ越しました。それ以来、MDADM RAID5アレイの1つが非アクティブになっています

root@mserver:/tmp# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
3907039744 blocks

unused devices: <none>

ディスクを全部見つけたように見えるが、なぜか使いたくない

では、(S)ラベルは何を意味し、MDADMに配列の使用を再開するように指示するにはどうすればいいのでしょうか?

編集】さっき、-vで配列を止めて組み立ててみました

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

…と、猫/proc/mdstatを入力しても何も変わらないようです

編集2】参考になるかわかりませんが、各ディスクを調べた結果です

root@mserver:~# mdadm –examine /dev/sdb1

/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb  1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0

Update Time : Sat Apr 20 13:22:27 2013
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 6c8f71a3 - correct
Events : 955190

Layout : left-symmetric
Chunk Size : 64K

Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

0     0       8      113        0      active sync   /dev/sdh1
1     1       8       17        1      active sync   /dev/sdb1
2     2       8       97        2      active sync   /dev/sdg1
3     3       8       33        3      active sync   /dev/sdc1

root@mserver:~# mdadm –examine /dev/sdd1

/dev/sdd1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb  1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0

Update Time : Sat Apr 20 18:37:23 2013
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 6c812869 - correct
Events : 955205

Layout : left-symmetric
Chunk Size : 64K

Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

0     0       8      113        0      active sync   /dev/sdh1
1     1       0        0        1      faulty removed
2     2       8       97        2      active sync   /dev/sdg1
3     3       0        0        3      faulty removed

root@mserver:~# mdadm –examine /dev/sde1

/dev/sde1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb  1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0

Update Time : Sun Apr 21 14:00:43 2013
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 2
Spare Devices : 0
Checksum : 6c90cc70 - correct
Events : 955219

Layout : left-symmetric
Chunk Size : 64K

Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

0     0       0        0        0      removed
1     1       0        0        1      faulty removed
2     2       8       97        2      active sync   /dev/sdg1
3     3       0        0        3      faulty removed

root@mserver:~# mdadm –examine /dev/sdf1

/dev/sdf1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb  1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0

Update Time : Sat Apr 20 13:22:27 2013
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 6c8f71b7 - correct
Events : 955190

Layout : left-symmetric
Chunk Size : 64K

Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

0     0       8      113        0      active sync   /dev/sdh1
1     1       8       17        1      active sync   /dev/sdb1
2     2       8       97        2      active sync   /dev/sdg1
3     3       8       33        3      active sync   /dev/sdc1

私は、ドライブが最初に以下のように組み立てられたことを示唆するいくつかのメモを持っています

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Edit3]

ログに目を通すと、以下のようなことが起こったように見えます(--examineの結果のUpdate Timeに基づいて)

  1. 20日の13:22過ぎにsdbとsdfがノックアウトされた
  2. sddは20日の18時37分過ぎにノックアウトされた
  3. 1日の14時過ぎにサーバーが停止していました

2つのディスクが同時にダウンしたことを考えると、その時点(?)以降はアレイには書き込まれていないと考えるのが合理的に安全だと思うのですが、正しい順序で強制的に再起動させるのが比較的安全なのでしょうか?これを行うための最も安全なコマンドは何でしょうか?また、変更を書き込まずに行う方法はありますか?

  24  None  2013-06-04


ベストアンサー

Sラベルは、ディスクが “スペア “とみなされることを意味します。アレイを停止して再起動してみてください

  mdadm --stop /dev/md0
mdadm --assemble --scan

を使用して配列を再構築し、それでもうまくいかない場合は mdadm.conf を更新する必要があるかもしれません

31  Stefan Seidel  2013-06-04


この質問は少し古いものですが、同じような状況に直面している人の助けになるかもしれません。あなたが提供してくれたmdadm –examineの出力からイベントカウントを見ると、十分に近いように見えます(sdb1とsdf1では955190 -、sde1では955219、sdd1では955205)。その場合、推奨される行動は、イベントカウントの違いにもかかわらず、mdadmがドライブを受け入れるように強制的に手動でアレイをアセンブルすることです

配列を停止します

mdadm --stop /dev/md0

その後、手動で配列を組み立て直してみてください

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

アレイの状態を確認し、ドライブリスト/構造が問題ないかどうかを調べます (コマンド出力の下部には、どのドライブがどの状態で、アレイのどの位置にあるかが表示されます)

mdadm --detail /dev/md0

構造体に問題がなければ、再構築の進捗状況を確認します

cat /proc/mdstat

10  Milen  2014-09-13


以下のコマンドでレイドmd0を起動することができます

mdadm -A /dev/md0

とこのコマンドでmdadm.confファイルを更新します

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

0  krizna  2013-06-04


タイトルとURLをコピーしました