คำถามติดแท็ก mdadm

ยูทิลิตี้ linux ที่ใช้ในการจัดการอุปกรณ์ RAID ของซอฟต์แวร์

8
ฉันจะสร้าง mdadm ประกอบเองโดยอัตโนมัติหลังจากการบูตแต่ละครั้งได้อย่างไร
ผมประสบความสำเร็จในการสร้าง RAID (มิเรอร์) mdadmโดยใช้ อย่างไรก็ตามฉันต้องรันคำสั่งต่อไปนี้หลังจากบู๊ตแต่ละครั้ง: mdadm --stop --scan // to stop /dev/md127 - I don't know where the number 127 even comes from mdadm --assemble --scan // to start /dev/md0 ฉันทำอะไรผิด / เหตุใดฉันจึงต้องเรียกใช้คำสั่งเหล่านี้ตอนบูต วิธีที่ถูกต้องในการเริ่มต้น RAID อัตโนมัติด้วยการบู๊ตแต่ละครั้งคืออะไร?

9
วิธีทำให้อุปกรณ์ RAID ที่ไม่ได้ใช้งานทำงานได้อีกครั้ง?
หลังจากบูทอุปกรณ์ RAID1 ของฉัน ( /dev/md_d0*) บางครั้งก็อยู่ในสถานะสนุกสนานและฉันไม่สามารถเมานต์ได้ * เดิมผมสร้างขึ้นแต่ก็มีการเปลี่ยนแปลงอย่างใดตัวเองลงไป/dev/md0/dev/md_d0 # mount /opt mount: wrong fs type, bad option, bad superblock on /dev/md_d0, missing codepage or helper program, or other error (could this be the IDE device where you in fact use ide-scsi so that sr0 or sda or so is needed?) …

4
RAID1 เพิ่มประสิทธิภาพด้วย Linux mdadm หรือไม่
ฉันมี NAS 2-bay ราคาถูกพร้อม HDD 2TB เพื่อให้ทนทานต่อความล้มเหลวของดิสก์ฉันกำลังคิดที่จะซื้อ HDD 2TB ตัวที่สองและวางไว้ใน RAID1 ด้วย Linux mdadm ระบบไฟล์ ext4 สิ่งนี้จะเพิ่มหรือลดประสิทธิภาพของ NAS หรือไม่? แล้วการอ่านหรือเขียนประสิทธิภาพล่ะ? ดูเหมือนจะมีความคิดเห็นมากมายเกี่ยวกับออนไลน์ แต่ไม่มีความเห็นเป็นเอกฉันท์ ขอบคุณ แก้ไข: ดังนั้นฉันจึงได้คำตอบที่แตกต่างกันสามข้อ: "เร็วกว่าเล็กน้อย", "คุณจะไม่สังเกต" และ "จะลดประสิทธิภาพลงถ้ามี" (ฉันสนใจการอ่านเป็นหลัก) Wikipedia กล่าวว่า "ประสิทธิภาพการอ่านอาจเพิ่มขึ้นเป็นเส้นตรงเชิงเส้นของจำนวนสำเนา" อันไหน? แก้ไข 2: ฉันพบหลักฐานการติดตั้งเพื่อรองรับ RAID1 ที่เพิ่มประสิทธิภาพการอ่านรวมถึง MD manpage: การเปลี่ยนแปลงจะถูกเขียนไปยังอุปกรณ์ทั้งหมดในแบบคู่ขนาน ข้อมูลถูกอ่านจากอุปกรณ์ใด ๆ ไดรเวอร์พยายามแจกจ่ายคำร้องขอการอ่านบนอุปกรณ์ทั้งหมดเพื่อเพิ่มประสิทธิภาพ ฉันค้นพบ RAID10 ของ MD ด้วย--layout=f2ซึ่งให้ความซ้ำซ้อนของ …

4
วิธีเปลี่ยนชื่อของอุปกรณ์ MD (mdadm)
นี่คือเอาต์พุตจากmdadm -Esv : ARRAY / dev / md127 level = raid0 num-devices = 2 UUID = d89d9d45: 9a420812: c44c77eb: อุปกรณ์ 7ee19756 = / dev / sdb8, / dev / sda8 นี่คืออาร์เรย์ v0.90 คำถามมีดังนี้: mdadm กำหนดชื่อให้กับอุปกรณ์อ้างอิงได้อย่างไรมันเก็บไว้ที่ไหนและจะเปลี่ยนได้อย่างไร? สิ่งที่ฉันต้องการทำให้สำเร็จคือเปลี่ยนชื่อmd127เป็นสิ่งที่แตกต่างจากที่ฉันชอบ

9
mdadm RAID 1 แบบง่ายไม่เปิดใช้งานอะไหล่
ฉันสร้างพาร์ติชั่น HDD 2TB สองตัว ( /dev/sdb1และ/dev/sdc1) ในอาร์เรย์ RAID 1 ที่เรียกว่า/dev/md0ใช้mdadmบน Ubuntu 12.04 LTS Precise Pangolin คำสั่งที่sudo mdadm --detail /dev/md0ใช้ในการแสดงทั้งสองไดรฟ์เป็นซิงค์ที่ใช้งาน จากนั้นสำหรับการทดสอบฉันล้มเหลว/dev/sdb1ลบออกแล้วเพิ่มอีกครั้งด้วยคำสั่งsudo mdadm /dev/md0 --add /dev/sdb1 watch cat /proc/mdstat แสดงแถบความคืบหน้าของการสร้างอาร์เรย์ขึ้นใหม่ แต่ฉันจะไม่ใช้เวลาเป็นชั่วโมงในการดูดังนั้นฉันจึงสันนิษฐานว่าซอฟต์แวร์รู้ว่ามันกำลังทำอะไรอยู่ หลังจากที่แถบความคืบหน้าไม่แสดงอีกต่อไปแสดงcat /proc/mdstat: md0 : active raid1 sdb1[2](S) sdc1[1] 1953511288 blocks super 1.2 [2/1] [U_] และsudo mdadm --detail /dev/md0แสดงให้เห็นว่า: /dev/md0: Version : …
24 linux  raid  raid-1  mdadm 

3
ฉันจะเปิดใช้งานอาร์เรย์ MDADM RAID5 อีกครั้งได้อย่างไร
ฉันเพิ่งย้ายบ้านซึ่งเกี่ยวข้องกับการถอดเซิร์ฟเวอร์ของฉันและเชื่อมต่อใหม่อีกครั้ง นับตั้งแต่ทำเช่นนั้นหนึ่งในอาร์เรย์ MDADM RAID5 ของฉันจะปรากฏเป็นไม่ใช้งาน: root@mserver:/tmp# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md1 : active raid5 sdc1[1] sdh1[2] sdg1[0] 3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S) 3907039744 blocks unused devices: <none> ดูเหมือนว่าฉันจะพบดิสก์ทั้งหมด แต่ด้วยเหตุผลบางอย่างไม่ต้องการใช้พวกเขา ดังนั้นฉลาก …

6
การเพิ่มไดรฟ์ไปยัง RAID 10 Array
ฉันจะสร้างอาร์เรย์ RAID10 โดยใช้ mdadm ได้อย่างไร เห็นได้ชัดว่าฉันจะต้องเพิ่ม 2 ไดรฟ์ในแต่ละครั้งหรือจะต้องเป็น 4 ไดรฟ์? ฉันมีความรู้สึกว่ามันเป็นความคิดที่ไม่ดี หรือจะฉลาดกว่าที่จะเลือกใช้ RAID5
11 raid  mdadm  raid-10 

2
Btrfs ด้านบนของ mdadm raid10 หรือ btrfs raid10 บนอุปกรณ์เปล่า?
ฉันมี RAID10 ที่จัดการโดยmdadmและฉันมีระบบไฟล์ EXT4 อยู่ด้านบน อย่างไรก็ตามฉันชอบ BTRFS และต้องการแปลงระบบไฟล์ EXT4 เป็น BTRFS แต่ฉันคิดเกี่ยวกับประสิทธิภาพและการบำรุงรักษา สำหรับตัวอย่างที่มี BTRFS ฉันไม่สามารถดูสถานะได้อย่างง่ายดายเมื่อฉันลบ / เพิ่มดิสก์อื่นลงในอาร์เรย์อย่างที่ฉันสามารถทำได้ด้วย mdadm (หรือบางทีฉันไม่รู้วิธี - ฉันค้นหาเอกสาร BTRFS และไม่พบสิ่งนี้ ) ดังนั้นจากประสบการณ์ของคุณตัวเลือกที่ดีกว่าคืออะไร: เพียงแค่แปลงระบบไฟล์ EXT4 และปล่อยให้ mdadm จัดการกับ RAID10 เพื่อกำจัด mdadm และให้ BTRFS ทำทุกอย่าง
9 linux  mdadm  btrfs 

2
mdadm RAID ติดตั้งอย่างรวดเร็วด้วยไดรฟ์เปล่า
ฉันสร้างดิสก์ RAID5 ใหม่เป็น RAID6 ที่มี mdadm ไม่มีข้อมูลเกี่ยวกับไดรฟ์ที่ฉันสนใจ การตั้งค่า RAID ใช้เวลาครู่หนึ่งในการตั้งค่ารูปร่าง - ฉันยอมรับว่าเมื่อมีข้อมูลที่ต้องคำนวณเป็นสไทรพ์และพาริตีอย่างไรก็ตามด้วยไดรฟ์เหล่านี้จะว่างเปล่าหรืออย่างน้อยฉันต้องการให้มันว่างเปล่า ดังนั้นมีวิธีที่จะข้ามการคำนวณพาริตี้และบอก mdadm เพียงแค่ตั้งค่า superblocks และทำได้หรืออย่างอื่นมันใช้เวลาทั้งหมดนี้เมื่อไม่มีข้อมูลที่จะย้ายไปรอบ ๆ ? md3 : active raid6 sdf3[5] sde3[4] sdd3[3] sdc7[2] sdb3[1] sda3[0] 1953114112 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU] [>....................] resync = 1.3% (6790144/488278528) finish=409.3min speed=19604K/sec โปรดทราบว่าฉันไม่ได้พูดถึง--assume-cleanว่าคุณกำลังสร้างอาร์เรย์ขึ้นใหม่จากชุดดิสก์ที่มีอยู่แล้วที่มีอาร์เรย์ RAID …

5
จำเป็นต้องค้นหาไดรฟ์ที่ทำมิรเรอร์ภายในอาเรย์ RAID-10
ฉันมีเซิร์ฟเวอร์สื่อภายในบ้านที่ทำงานบน openSUSE 12.2 ฉันใช้ไดรฟ์ 2TB สองตัวในการกำหนดค่า RAID-10 ฉันจงใจซื้อไดรฟ์สองประเภท: สี่ Seagate Barracuda Green และ Western Digital Red เป้าหมายของฉันคือการกำหนดค่า RAID เพื่อให้คู่มิรเรอร์ภายในอาร์เรย์จะประกอบด้วยไดรฟ์ที่แตกต่างกัน (เช่นไดรฟ์ Seagate หนึ่งไดรฟ์และหนึ่งไดรฟ์ WD) YaST2 Partitioner โชคไม่ดีที่ฉันไม่ได้เลือกระดับนี้ในโครงสร้างของอาร์เรย์ดังนั้นตอนนี้ฉันกำลังพยายามค้นหาว่าโครงสร้าง RAID10 เริ่มต้นเป็นอย่างไร ฉันรู้สิ่งต่อไปนี้: sdc, sdd, sde และ sdf เป็นไดรฟ์ WD ทั้งหมด sdg, sdh, sdi และ sdj เป็นไดรฟ์ Seagate ทั้งหมด ฉันเลือกเลย์เอาต์ 'n2' เริ่มต้นเมื่อสร้าง RAID ฉันเดาตามข้อมูลจากสองแหล่งนี้คือไดรฟ์ที่อยู่ติดกันถูกทำมิเรอร์ …

2
ปรับขนาดพาร์ติชันพื้นฐานใน mdadm RAID1
ฉันมี NAS ที่สร้างขึ้นในบ้านและฉันจำเป็นต้องกำหนดค่าการใช้งานไดรฟ์ของฉันใหม่เล็กน้อย ฉันมี mdadm RAID1 ซึ่งประกอบด้วยไดรฟ์ 3TB สองตัว แต่ละไดรฟ์มีหนึ่งพาร์ติชัน ext3 ที่ใช้ไดรฟ์ทั้งหมด ฉันจำเป็นต้องลดขนาดพาร์ติชัน ext3 ลงบนทั้งสองไดรฟ์และเพิ่ม 8GB พาร์ติชั่นที่สองหรือ ext3 ลงในหนึ่งและสลับพาร์ติชั่นที่มีขนาดเท่ากัน ฉันคิดว่าฉันมีขั้นตอนที่คิดออกมา แต่ต้องการการยืนยัน ปรับขนาด mdadm RAID resize2fs /dev/md0 [size]โดยที่ขนาดใหญ่กว่าพื้นที่ที่ใช้อยู่ในไดรฟ์ปัจจุบันเล็กน้อย ลบไดรฟ์ตัวใดตัวหนึ่งออกจาก RAID mdadm /dev/md0 --fail /dev/sda1 ปรับขนาดไดรฟ์ที่ถูกลบโดยแยกออก เพิ่มพาร์ติชันใหม่ลงในไดรฟ์ที่มีการแยกส่วน กู้คืนไดรฟ์เป็น RAID mdadm -a /dev/md0 /dev/sda1 ทำซ้ำ 2-5 สำหรับอุปกรณ์อื่น ปรับขนาด RAID เพื่อใช้พาร์ติชันแบบเต็ม mdadm --grow /dev/md0 …
9 ubuntu  ext3  mdadm 

3
มันปลอดภัยที่จะนำฮาร์ดดิสก์ของ md-software-raid เข้าสู่โหมดสแตนด์บายหรือไม่?
ฉันมีไฟล์เซิร์ฟเวอร์ที่บ้านพร้อมฮาร์ดดิสก์ท็อป 6 เครื่องในการโจมตี MD เซิร์ฟเวอร์ไม่สามารถเข้าถึงได้มากดังนั้นฉันคิดว่ามันจะดีสำหรับฮาร์ดไดรฟ์ที่จะเข้าสู่โหมดสแตนด์บายหลังจากเวลาว่าง (เช่นด้วยคำสั่ง hdparm -S หรือ hd-idle) มีความปลอดภัยเมื่อใช้ mdadm หรืออาจทำให้เกิดข้อผิดพลาด / ลดระดับฮาร์ดดิสก์?
9 linux  raid  mdadm 

3
Raid1 พร้อมพาร์ทิชันที่ใช้งานและว่าง
ฉันมีปัญหาต่อไปนี้กับพาร์ติชั่นการจู่โจมซอฟต์แวร์ RAID1 บนระบบ Ubuntu ของฉัน (10.04 LTS, 2.6.32-24- เซิร์ฟเวอร์ในกรณีที่เป็นเรื่องสำคัญ) หนึ่งในดิสก์ของฉัน (sdb5) รายงานข้อผิดพลาดของ I / O และถูกทำเครื่องหมายว่าผิดพลาดในอาเรย์ อาร์เรย์จะถูกลดระดับด้วยอุปกรณ์ที่ใช้งานอยู่หนึ่งเครื่อง ดังนั้นฉันจึงเปลี่ยนฮาร์ดดิสค์โคลนตารางพาร์ทิชันและเพิ่มพาร์ทิชันใหม่ทั้งหมดในอาร์เรย์การโจมตีของฉัน หลังจากการซิงค์พาร์ติชั่นทั้งหมดสิ้นสุดลงโดยมีอุปกรณ์ที่ใช้งาน 2 อุปกรณ์ - ยกเว้นหนึ่งในนั้น อย่างไรก็ตามพาร์ติชันที่รายงานดิสก์ที่ผิดพลาดมาก่อนจะไม่รวมพาร์ติชันใหม่เป็นอุปกรณ์ที่ใช้งาน แต่เป็นดิสก์สำรอง: md3 : active raid1 sdb5[2] sda5[1] 4881344 blocks [2/1] [_U] ดูรายละเอียดเผยให้เห็น: root@server:~# mdadm --detail /dev/md3 [...] Number Major Minor RaidDevice State 2 8 21 0 …

0
เรดสำรองอะไหล่
ฉันมีซอฟต์แวร์ RAID 5 (mdadm ภายใต้ Debian Linux) ที่ได้รับการขึ้นส่วนที่ดีกว่าของทศวรรษและได้เห็นมันเป็นส่วนแบ่งที่ยุติธรรมของความล้มเหลวของไดรฟ์ ฉันมักจะสงสัยเกี่ยวกับการตั้ง "hot spare" ด้วยเหตุผลต่าง ๆแต่ที่สำคัญที่สุดคือฉันได้สันนิษฐานเสมอว่าไดรฟ์จะหมุนและนั่งว่าง ฉันดูเหมือนจะต่อต้านการปั่นไดรฟ์ที่อาจนั่งเป็นเวลาหลายเดือนหรือหลายปีก่อนที่มันจะถูกเรียกใช้โดยไม่จำเป็นต้องบันทึกชั่วโมงการสึกหรอทางกลโดยไม่จำเป็น 1) mdadm จะหมุนอะไหล่ร้อนจนกว่าพวกเขาจะถูกเรียก? 2) สมมติว่าไม่มีวิธีจัดการตรงไปตรงมานี้หรือไม่? เห็นได้ชัดว่าฉันไม่ต้องการให้ไดรฟ์หมุนอีกครั้งเมื่อถูกดึงเข้าไปในอาร์เรย์ของฉันดังนั้นการตั้งค่าการหมดเวลาด้วยhdparmดูเหมือนว่าเป็นความคิดที่ไม่ดี ฉันตระหนักดีถึงการโพสต์ / กระทู้อื่น ๆ ที่เผาไหม้ OP เกี่ยวกับการหมุนไดรฟ์ลงในอาร์เรย์ของพวกเขาดังนั้นฉันต้องการชัดเจนว่าฉันไม่มีความสนใจในการหมุนไดรฟ์ที่ใช้งานอยู่ในอาร์เรย์เฉพาะอะไหล่ ) .

1
ฉันจะกู้คืนข้อมูลจากไดรฟ์เดียวในการตั้งค่า RAID 1 บน Synology DS214 + NAS ได้อย่างไร
ฉันกำลังทำสิ่งนี้ดังนั้นฉันจึงรู้วิธีการกู้คืนข้อมูลของฉันในกรณีที่ NAS นั้นเสียเองและฉันเหลือเพียงไดรฟ์เดียวจากอ่าวที่ 2 (หรือจากอ่าวที่ 1) ติดตั้ง Synology DS214 + NAS ไดรฟ์ 2x4TB ใน Raid 1 (ไม่ใช่ SHR) สร้างหนึ่งเล่มและโฟลเดอร์ที่ใช้ร่วมกันไม่กี่คน สิ่งที่ฉันต้องการเพื่อให้บรรลุ กู้คืนข้อมูลจากไดรฟ์ที่ฉันลบออกจากช่องที่สองโดยไม่ต้องใช้ไดรฟ์อื่นในช่องที่ 1 โดยใช้ Ubuntu 12 ที่ทำงานใน VMware Player สิ่งที่ฉันได้ทำไปแล้ว ปิดระบบ NAS นำไดรฟ์ออกจากช่องที่สองของ NAS ของฉัน ติดตั้ง Ubuntu 12.04 บน vmware player ติดตั้ง lvm2 และ mdadm ใส่ไดรฟ์ของฉันจากช่องที่สอง (ซึ่งฉันต้องการกู้คืนข้อมูลจาก) ไปยังกล่องหุ้ม USB ซึ่งเสียบไว้กับแล็ปท็อปของฉัน นี่คือรูปลักษณ์ของไดรฟ์ใน …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.