Synology มีเวอร์ชันที่กำหนดเองซึ่งประกอบด้วยไดรเวอร์ md และชุดเครื่องมือ mdadm ที่เพิ่มค่าสถานะ 'DriveError' ให้กับโครงสร้าง rdev-> ค่าสถานะในเคอร์เนล
ผลกระทบสุทธิ - หากคุณโชคร้ายพอที่จะได้รับความล้มเหลวของอาเรย์ (ไดรฟ์แรก), รวมกับข้อผิดพลาดในไดรฟ์ที่สอง - อาเรย์จะเข้าสู่สถานะที่ไม่ให้คุณซ่อมแซม / สร้างอาเรย์ใหม่แม้ว่าการอ่านจากไดรฟ์ ละเอียด.
ณ จุดนี้ฉันไม่ได้กังวลจริง ๆ เกี่ยวกับคำถามนี้จากมุมมองของอาเรย์นี้เนื่องจากฉันได้ดึงเนื้อหาออกแล้วและตั้งใจที่จะสร้างขึ้นมาใหม่ แต่ไม่ต้องการมีเส้นทางการแก้ปัญหาในอนาคต เนื่องจากเป็นครั้งที่สองที่ฉันได้รับบิตและฉันรู้ว่าฉันเห็นคนอื่นถามคำถามที่คล้ายกันในฟอรัม
การสนับสนุนด้าน Synology มีประโยชน์น้อยกว่า (และส่วนใหญ่ไม่ตอบสนอง) และจะไม่แบ่งปันข้อมูลใด ๆ ที่ทั้งหมดเกี่ยวกับการโจมตีในกล่อง
เนื้อหาของ / proc / mdstat:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
สถานะจาก mdadm --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
ดังที่คุณเห็น - / dev / sda5 ถูกเพิ่มเข้าไปในอาร์เรย์อีกครั้ง (เป็นไดรฟ์ที่ล้มเหลวทันที) - แต่ถึงแม้ว่า md จะเห็นว่าไดรฟ์นั้นว่าง แต่มันจะไม่สร้างขึ้นมาใหม่ / dev / sde5 ในกรณีนี้คือไดรฟ์ปัญหาด้วยสถานะ (E) DiskError
ฉันได้ลองหยุดอุปกรณ์ md กำลังเรียกใช้ reassembles กำลังลบ / readding sda5 จากอุปกรณ์ / etc ไม่มีการเปลี่ยนแปลงพฤติกรรม
ฉันสามารถสร้างอาร์เรย์ใหม่ได้อย่างสมบูรณ์ด้วยคำสั่งต่อไปนี้:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
ซึ่งนำอาร์เรย์กลับสู่สถานะนี้:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
ฉันเพิ่ม / dev / sda5 อีกครั้ง:
mdadm --manage /dev/md2 --add /dev/sda5
หลังจากนั้นก็เริ่มสร้างใหม่:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
สังเกตตำแหน่งของไดรฟ์ "หายไป" ที่ตรงกับตำแหน่งที่แน่นอนของสล็อตที่หายไป
เมื่อเสร็จสิ้นฉันคิดว่าฉันอาจดึงไดรฟ์ที่น่าสงสัยและสร้างใหม่อีกครั้ง
ฉันกำลังมองหาคำแนะนำใด ๆ ว่ามีวิธี "น่ากลัวน้อยกว่า" ในการซ่อมแซมนี้หรือไม่หรือใครก็ตามที่เคยผ่านประสบการณ์นี้ด้วยอาร์เรย์ Synology และรู้วิธีบังคับให้สร้างใหม่นอกเหนือจากการใช้อุปกรณ์ md ออฟไลน์และ สร้างอาร์เรย์ใหม่ตั้งแต่เริ่มต้น