คำถามติดแท็ก mdadm

ยูทิลิตี้ linux ที่ใช้ในการจัดการอุปกรณ์ RAID ของซอฟต์แวร์

4
วิธีตรวจสอบ 'mdadm' RAID ในขณะที่ใช้งานอยู่
ฉันเริ่มรับคอมพิวเตอร์ที่บ้านและสนับสนุนพวกเขาฉันมีกล่อง "เซิร์ฟเวอร์" linux ที่ใช้อาร์เรย์ RAID ปัจจุบันmdadm RAID-1จะไปRAID-5เมื่อฉันมีไดรฟ์มากขึ้น (แล้วRAID-6ฉันหวังว่า) อย่างไรก็ตามฉันเคยได้ยินเรื่องราวต่าง ๆ เกี่ยวกับข้อมูลที่ได้รับความเสียหายในไดรฟ์หนึ่งและคุณไม่เคยสังเกตเห็นเนื่องจากมีการใช้งานไดรฟ์อื่นจนถึงจุดที่ไดรฟ์แรกล้มเหลวและคุณพบว่าไดรฟ์ที่สองของคุณ ไดรฟ์ที่ 5) เห็นได้ชัดว่าการสำรองข้อมูลมีความสำคัญและฉันก็ดูแลเช่นกัน แต่ฉันรู้ว่าฉันเคยเห็นสคริปต์ที่อ้างว่าช่วยแก้ไขปัญหานี้และให้คุณตรวจสอบ RAID ของคุณในขณะที่ทำงานอยู่ อย่างไรก็ตามการค้นหาสคริปต์เหล่านี้อีกครั้งในตอนนี้ฉันพบว่ามันยากที่จะพบสิ่งที่คล้ายกับที่ฉันเคยวิ่งมาก่อนและฉันรู้สึกว่าฉันล้าสมัยและไม่เข้าใจสิ่งที่เปลี่ยนแปลงไป คุณจะตรวจสอบ RAID ที่รันอยู่เพื่อให้แน่ใจว่าดิสก์ทั้งหมดยังคง preforming ได้ตามปกติอย่างไร ฉันตรวจสอบ SMART บนไดรฟ์ทั้งหมดและmdadmตั้งค่าให้ส่งอีเมลฉันในกรณีที่เกิดความล้มเหลว แต่ฉันต้องการทราบว่าไดรฟ์ของฉัน "ตรวจสอบ" ตัวเองเป็นครั้งคราวด้วยเช่นกัน
41 raid  mdadm 

3
ความแตกต่างระหว่าง UUID จาก blkid และ mdadm?
คนที่สามารถอธิบายความแตกต่างระหว่างรายงานโดย UUID ของblkidและmdadm? ตัวอย่างหนึ่งในระบบ CentOS ของเรา: [root@server ~]# blkid | grep /dev/md1 /dev/md1: UUID="32cb0a6e-8148-44e9-909d-5b23df045bd1" TYPE="ext4" [root@server ~]# mdadm --detail /dev/md1 | grep UUID UUID : f204c558:babf732d:85bd7296:bbfebeea ทำไมมันแตกต่างกันและเราจะเปลี่ยน UUID ที่ใช้งานmdadmอย่างไร ฉันเข้าใจว่าเราจะใช้tune2fsเปลี่ยน UUID สำหรับพาร์ติชัน (ซึ่งจะเปลี่ยนสิ่งที่ส่งคืนblkid) แต่ไม่แน่ใจว่าจะเปลี่ยนสิ่งที่mdadmใช้อย่างไร
26 linux  mdadm  uuid 

4
ความแตกต่างระหว่างการสร้างอาร์เรย์ mdadm โดยใช้พาร์ทิชันหรือดิสก์ทั้งหมดโดยตรงคืออะไร
มีใครช่วยอธิบายให้ฉันหน่อยได้ไหมความแตกต่างระหว่างการสร้างmdadmอาร์เรย์โดยใช้พาร์ทิชันหรือดิสก์ทั้งหมดโดยตรงคืออะไร สมมติว่าฉันตั้งใจจะใช้ไดรฟ์ทั้งหมด โปรดทราบว่าพวกเขาอยู่กับ GPT ลองนึกภาพ RAID6 ที่สร้างขึ้นในสองวิธี: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 หรือ: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd มีความแตกต่างหรือไม่? แก้ไข 1:ฉันหมายถึงในตัวอย่างความน่าเชื่อถือหรือความสามารถในการจัดการหรือการกู้คืนในอาร์เรย์ดังกล่าว ฯลฯ แก้ไข 2:ฉันใช้ไดรฟ์ของผู้ผลิตรายอื่น แต่นั่นไม่ใช่คำถามจริงๆ พวกเขาทั้งหมดมีขนาดเท่ากันฉันจะได้รับจุดที่อาจมีผู้ผลิตทำให้ไดรฟ์ขนาดแตกต่างกันเล็กน้อย แต่เพื่อประโยชน์ของคำถามนี้สมมติว่ามันมีขนาดเท่ากัน EDIT3:เรียงลำดับของข้อจำกัดความรับผิดชอบ: จนถึงตอนนี้ฉันมักจะแบ่งพาร์ติชันไดรฟ์

3
วิธีการแทนที่ดิสก์ที่ยังไม่ได้ล้มเหลวในอาร์เรย์ Linux RAID5 อย่างปลอดภัยได้อย่างไร
ฉันมีซอฟต์แวร์ RAID5 array (Linux md) บนดิสก์ 4 ตัว ฉันต้องการแทนที่หนึ่งในดิสก์ด้วยดิสก์ใหม่โดยไม่ต้องวางอาร์เรย์ในสถานะที่เสื่อมโทรมและหากเป็นไปได้ออนไลน์ มันจะเป็นไปได้ยังไง? มันสำคัญเพราะฉันไม่ต้องการ: รับความเสี่ยงที่จะเกิดความเครียดกับดิสก์อื่นดังนั้นอาจเกิดปัญหาระหว่างการสร้างใหม่ รับความเสี่ยงที่จะอยู่ในสถานะ "ไม่เสมอภาค" ดังนั้นฉันจึงไม่มีเครือข่ายความปลอดภัยในบางครั้ง ฉันคิดว่าการทำเช่นนั้นออนไลน์เป็นการถามมากเกินไปและฉันควรคัดลอกข้อมูลดิบ ( dd) ข้อมูลของดิสก์เก่าไปยังดิสก์ใหม่แบบออฟไลน์แล้วแทนที่ แต่ฉันคิดว่าเป็นไปได้ในทางทฤษฎี ... บริบทบางอย่าง : ดิสก์เหล่านั้นทั้งหมดหมุนอย่างต่อเนื่องมานานกว่า 5.5 ปี พวกเขายังคงทำงานได้อย่างสมบูรณ์แบบในขณะนี้และพวกเขาทั้งหมดผ่านการทดสอบตัวเองสมาร์ท (ยาว) อย่างไรก็ตามฉันมีเหตุผลที่จะคิดว่าหนึ่งใน 4 ดิสก์นั้นจะไม่นานกว่านี้อีก (ควรคาดคะเนความล้มเหลว)

2
อะไรคือความแตกต่างระหว่างสถานะ mdadm“ active” และ state“ clean”
ฉันมีคอมพิวเตอร์สองเครื่องที่แตกต่างกันและมี RAID5 ต่างกัน เมื่อฉันเรียกใช้คำสั่ง mdadm --detail /dev/md0 ไดรฟ์หนึ่งรายงานว่า "ใช้งานอยู่" ในขณะที่รายงานอื่นจะ "ทำความสะอาด" สำหรับฟิลด์ "สถานะ" อะไรคือความแตกต่าง? ฉันควรกังวลเกี่ยวกับสถานะใด ทั้งคู่ดูเหมือนจะทำงานได้ดี
20 raid  mdadm 

3
ฉันสามารถสร้างซอฟต์แวร์ RAID 1 ด้วยอุปกรณ์เดียวได้ไหม
ฉันมีดิสก์เดียวที่ฉันต้องการสร้างมิเรอร์ เรียกดิสก์นี้sdaว่า ฉันเพิ่งซื้อดิสก์ขนาดเท่ากันซึ่งเราสามารถโทรหาsdbได้ sdaและsdbมีหนึ่งพาร์ติชันที่เรียกว่าsda1และsdb1ตามลำดับ เมื่อมีการสร้างการโจมตีผมไม่ต้องการที่จะเช็ดของฉันที่สะอาดและเริ่มต้นอีกครั้งฉันเพียงแค่ต้องการที่จะเริ่มต้นกับมิเรอร์sda sdbรถไฟแห่งความคิดของฉันต้องทำ: mdadm --create --verbose /dev/md0 --level=mirror --raid-devices=1 /dev/sda1 ... เพื่อสร้างอาเรย์ที่ไม่มีsdbดิสก์แล้วเรียกใช้สิ่งที่ต้องการ (ฉันคิดว่าคำสั่งดังต่อไปนี้ออกมาเพราะฉันไม่แน่ใจว่าจะบรรลุขั้นตอนนี้ได้อย่างไร) mdadm /dev/md0 --add /dev/sdb1 หมายเหตุsdb1จะถือว่ารูปแบบคล้ายกันsda1 เป็นไปได้ไหม
20 raid  mdadm  disk 

3
Linux md RAID: / dev / md0 vs. / dev / md / 0
บนระบบที่ใหม่กว่า/usr/share/mdadm/mkconf(สคริปต์ที่ใช้ในการสร้าง/etc/mdadm/mdadm.conf) มีแนวโน้มที่จะใช้ชื่ออุปกรณ์/dev/md/0แทน/dev/md0: new-system ~ # /usr/share/mdadm/mkconf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=a0021927:0e4f10bf:2c47dc72:ca0b352e name=unassigned:0 สิ่งนี้อาจทำให้เกิดการระคายเคืองสำหรับผู้ใช้ที่คาดหวัง/dev/md0แต่ดูเหมือนว่าจะทำงานได้ดีเพราะเซิร์ฟเวอร์บู๊ตโดยไม่มีปัญหา ใน/proc/mdstatอุปกรณ์ยังคงเรียกว่า/dev/md0: new-system ~ # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb2[2] sda2[0] 1953381184 blocks super 1.2 [2/2] [UU] unused devices: <none> lsแสดงให้เห็นว่า/dev/md/0เป็น symlink ไปที่/dev/md0: new-system ~ # ls -l /dev/md/0 lrwxrwxrwx 1 …
19 debian  mdadm  md 

1
อาร์เรย์ md ใหม่เป็นแบบอ่านอย่างเดียวโดยอัตโนมัติและมีการซิงค์ = PENDING
ฉันได้สร้างอาร์เรย์ md ใหม่ด้วยคำสั่งต่อไปนี้: mdadm --create /dev/md1 -l 1 -n 2 /dev/sd[ed]1 แต่ตอนนี้/proc/mdstatแสดงอาร์เรย์เป็น "อ่านอย่างเดียวโดยอัตโนมัติ" ด้วย resync = PENDING: ~ # cat /proc/mdstat Personalities : [raid1] md1 : active (auto-read-only) raid1 sde1[1] sdd1[0] 976630336 blocks super 1.2 [2/2] [UU] resync=PENDING md0 : active raid1 sdb1[0] sdc1[1] 1953511936 blocks [2/2] [UU] unused devices: …
17 raid  mdadm 

5
การตรวจสอบบิตเน่าและการแก้ไขด้วย mdadm
ฉันกำลังจะจัดระเบียบฮาร์ดดิสก์ทั้งหมดของฉันอีกครั้งในกล่องลินุกซ์ที่บ้านของฉันและต้องการใช้การโจมตี mdadm สำหรับการปกป้องข้อมูลและความยืดหยุ่นในการปรับแต่งอาร์เรย์ อย่างไรก็ตามก่อนที่ฉันจะใช้ mdadm สำหรับสิ่งนี้ฉันต้องการทราบว่ามันจัดการบิตเน่าได้อย่างไร ชนิดของบิตเน่าที่ไม่ส่งผลให้เกิดข้อผิดพลาดการอ่านที่ไม่สามารถกู้คืนได้ถูกส่งจาก HDD เนื่องจากฉันจะใช้ HDD อย่างน้อย 21TB ใน 8 ดิสก์ใน NAS และราคาต่าง ๆ เกี่ยวกับความน่าจะเป็นของความล้มเหลวบน HDD ฉันคิดว่าในระหว่างการสร้างใหม่จากความล้มเหลวของดิสก์เดียวฉันมีแนวโน้มที่จะพบ รูปแบบของบิตเน่าในดิสก์ที่เหลือ หากเป็นข้อผิดพลาดในการอ่านที่ไม่สามารถกู้คืนได้ใน 1 ไดรฟ์แสดงว่าไดรฟ์นั้นรายงานว่าเป็นข้อผิดพลาดจริง ๆ ฉันเชื่อว่าควรจะดีกับ raid6 (ใช่หรือไม่) อย่างไรก็ตามหากข้อมูลที่อ่านจากดิสก์ไม่ดี แต่ไม่มีการรายงานจากดิสก์ฉันไม่สามารถดูได้ว่าจะสามารถแก้ไขได้อย่างไรโดยอัตโนมัติแม้กับ raid6 นี่เป็นสิ่งที่เราต้องกังวลหรือไม่? รับบทความเป็น 2010 และ RAID5 ยังคงทำงานและประสบการณ์ที่ประสบความสำเร็จของฉันเองที่บ้านและที่ทำงานสิ่งต่าง ๆ ไม่จำเป็นต้องดูหมิ่นและเศร้าหมองเหมือนคำพูดและการตลาดที่จะทำให้เราเชื่อ แต่ฉันเกลียดที่จะต้องกู้คืนจากการสำรองข้อมูลเพียงเพราะ HDD ล้มเหลว ระบุว่ารูปแบบการใช้จะเป็นเขียนเป็นอย่างมากไม่กี่ครั้งและอ่านบางครั้งฉันจะต้องดำเนินการข้อมูลที่ขัด ฉันเห็นใน archlinux wiki คำสั่ง mdadm สำหรับข้อมูลขัดอาเรย์เป็น …
17 raid  mdadm 

3
mdadm: ไม่สามารถลบส่วนประกอบใน RAID 1
ฉันมีพาร์ทิชัน / boot ของฉันในอาร์เรย์ RAID 1 โดยใช้ mdadm อาเรย์นี้มีการลดระดับในอดีตไม่กี่ครั้งและทุกครั้งที่ฉันถอดฟิสิคัลไดรฟ์เพิ่มใหม่ทำให้อาเรย์เป็นปกติโดยใช้ตัวอักษรไดรฟ์ใหม่ ออกจากเดิมยังอยู่ในอาร์เรย์และล้มเหลว ฉันไม่สามารถลบองค์ประกอบทั้งหมดที่ไม่มีอยู่ได้ [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] นี่คือสิ่งที่ฉันพยายามลบไดรฟ์และพาร์ทิชันที่ไม่มีอยู่ ตัวอย่างเช่น/dev/sdb1. [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or …

1
mdadm raid1 และ chunksize (หรือ blockize) บนไดรฟ์ 4k เป็นอย่างไร
ฉันต้องการใช้ไดรฟ์ 3 TB สองตัวในการตั้งค่า mdadm raid1 (โดยใช้ Debian Sequeeze) ไดรฟ์ใช้ภาคฮาร์ดแวร์ 4k แทนแบบดั้งเดิม 512 ไบต์ ฉันสับสนเล็กน้อยเพราะในแง่หนึ่งเคอร์เนลรายงาน: $ cat /sys/block/sdb/queue/hw_sector_size 512 แต่ในทางกลับfdiskกันรายงาน: # fdisk -l /dev/sdb Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 …

3
อะไรทำให้ rsync ด้านใดด้านหนึ่งยุ่งมาก?
ฉันมีเครื่อง Debian บน LAN ที่ให้บริการในฐานะเซิร์ฟเวอร์สำรองสำหรับเครื่องอื่น ๆ มี HDD สี่ตัวที่รวมอยู่ในอุปกรณ์ RAID 5 md บน LVM และบน btrfs นั้น ทำการสำรองข้อมูลโดยใช้ rsync และสำหรับระบบไฟล์ขนาดใหญ่ใช้เวลามากกว่าหนึ่งชั่วโมง เป็นเวลานานที่ฉันคิดว่าจะมีเรื่องเล็กน้อยที่ฉันสามารถทำได้เกี่ยวกับเรื่องนี้ อย่างไรก็ตามเมื่อเร็ว ๆ นี้ฉันสังเกตเห็นว่ากิจกรรม HDD นั้นแตกต่างกันมากทั้งสองด้านของการถ่ายโอน ในขณะที่ด้านการส่งการเรียกใช้ Gentoo และส่วนใหญ่ใช้ ext4 นั้นแทบจะไม่มีดิสก์ IO เลยด้านรับนั้นยุ่งตลอดเวลา เนื่องจากข้อมูลส่วนใหญ่จะไม่เปลี่ยนแปลงระหว่างการถ่ายโอนฉันเชื่อว่าการอ่านข้อมูลเมตาควรเป็นข้อมูลจำนวนมาก แต่ฉันจะแปลกใจจริงๆถ้าการอ่าน inodes ใน btrfs นั้นทำงานได้ดีกว่าการทำแบบเดียวกันใน ext4 iotop ยืนยันดิสก์อ่านประมาณ 1-4 MB / s ในด้านการรับในขณะที่ด้านการส่งมีการระเบิดเป็นครั้งคราวเพียง 0.5 MB / …
11 performance  rsync  io  mdadm  btrfs 

3
ใช้ mdadm --examine เพื่อเขียน mdadm.conf
ฉันพยายามเขียนสคริปต์การตั้งค่า RAID สำหรับเซิร์ฟเวอร์ที่เหมือนกันจำนวนมากขึ้นเรื่อย ๆ คำแนะนำที่ฉันเคยเห็นสำหรับการใช้ mdadm แสดงให้เห็นว่าเมื่อสร้างอาร์เรย์ RAID แล้วคุณสามารถเรียกใช้mdadm --examine --scan >> /etc/mdadm.confเพื่อเริ่มต้นอาร์เรย์เมื่อเริ่มต้นระบบ แต่ที่ดูเหมือนจะไม่ทำงานสำหรับฉัน - โดยเฉพาะอย่างยิ่งอาร์เรย์จะนำเสนอเป็น/dev/md/<hostname>:poolที่เอาท์พุท mdadm --examine/dev/md/pool ฉันกำลังทำอะไรผิดหรือเปล่า? มีบางอย่างแปลก ๆ เกี่ยวกับ mdadm รุ่นของฉันหรือไม่? [root@positron /]# mdadm --create /dev/md0 --level=0 --name=pool --raid-devices=6 /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf [root@positron /]# mdadm --examine --scan ARRAY /dev/md/pool metadata=1.2 UUID=567da122:fb8e445e:55b853e0:81bd0a3e name=positron:pool [root@positron /]# …
11 rhel  raid  mdadm 

1
ความหมายของบิตแมปใน mdstat คืออะไร
ไม่นานมานี้ผมได้สร้างอาร์เรย์ RAID ซอฟแวร์ใหม่ ( mdadm) มี 4 ไดรฟ์ใน RAID6 ดูเหมือนว่าจะทำงานได้ดี mdstatดังต่อไปนี้: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> สิ่งที่ดักฟังฉันคือbitmap: 0/8 pagesส่วนที่ฉันไม่เข้าใจ คำถามคือ: นี่เป็นปัญหาที่อาจเกิดขึ้นหรือไม่? …

3
RAID ทำการซิงค์อีกครั้งโดยอัตโนมัติหรือไม่
ฉันค่อนข้างสุ่มตรวจสอบสถานะของอาร์เรย์ RAID ของฉันด้วยcat/proc/mdstatและตระหนักว่าหนึ่งในอาร์เรย์ของฉันดูเหมือนจะทำการซิงค์อีกครั้ง: md1 : active raid1 sdb7[1] sdc7[0] 238340224 blocks [2/2] [UU] [==========>..........] resync = 52.2% (124602368/238340224) finish=75.0min speed=25258K/sec ทำไมสิ่งนี้และมันหมายความว่าอย่างไร ฉันดูเหมือนจะสามารถเข้าถึงจุดเมานต์ได้ดีกับr/wสิทธิ์ แก้ไข 1 (ตอบสนองต่อคำตอบของ SLM ) ฉันไม่เห็นอะไรเลยถ้าฉันgrepผ่านdmesgและ--detailสวิตช์ไม่ได้บอกอะไรฉันมากนักเช่นมันแสดงว่า resync กำลังดำเนินการอยู่ ... แต่ไม่มีคำใบ้สำหรับเหตุผลหรือสาเหตุที่ทำให้ซิงค์หายไป .. - ฉันคิดว่าฉันอาจต้องจับตามองมันก่อนที่ฉันจะเริ่มแลกเปลี่ยนฮาร์ดแวร์ของฉัน

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.