คำถามติดแท็ก mdadm

ยูทิลิตี้ linux ที่ใช้ในการจัดการอุปกรณ์ RAID ของซอฟต์แวร์

1
อาร์เรย์การโจมตีที่เหมาะสมที่สุดบน Centos 6
ฉันมีดิสก์ 4x2TB และฉันต้องการสร้างอาร์เรย์ RAID5 ที่มีประสิทธิภาพดี (เซิร์ฟเวอร์คือไมโครซอฟท์ HP N40L ที่มี 8GB RAM, การบูตจาก 64GB SSHD) ระบบปฏิบัติการคือ Centos 6.3, x86_64 ฉันสร้างอาร์เรย์การโจมตีด้วยคำสั่งนี้: mdadm --create --verbose /dev/md0 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 เมื่อฉันทำ: mdadm --examine /dev/sda1 ... ฉันบอกว่า "ขนาดก้อน" ของฉันคือ 512K (เห็นได้ชัดว่านี่เป็นค่าเริ่มต้นใหม่ของ mdadm) ตอนนี้ฉันต้องการจัดรูปแบบอาร์เรย์ด้วย XFS ฉันได้รับการบอกกล่าว (ที่http://www.mythtv.org/wiki/Optimizing_Performance#Optimizing_XFS_on_RAID_Arrays ) ที่ว่า "sunit" เท่ากับขนาดก้อนของฉันซึ่งแสดงเป็นบล็อกขนาด 512 ไบต์ …
2 linux  centos  mdadm  xfs 

2
กู้คืนอาร์เรย์ RAID5 ของซอฟต์แวร์ Linux หลังจากอัปเกรดเซิร์ฟเวอร์
ฉันเพิ่งอัพเกรดเซิร์ฟเวอร์จาก Fedora 6 เป็น Fedora 14 นอกจากฮาร์ดไดรฟ์หลักที่ติดตั้งระบบปฏิบัติการแล้วฉันยังมีฮาร์ดไดรฟ์ 3 1TB ที่กำหนดค่าสำหรับ RAID5 (ผ่านซอฟต์แวร์) หลังจากการอัพเกรดฉันสังเกตเห็นว่าฮาร์ดไดรฟ์ตัวหนึ่งถูกลบออกจากอาเรย์การโจมตี ฉันพยายามที่จะเพิ่มมันกลับมาด้วย mdadm - เพิ่ม แต่มันก็ใส่ไว้ในอะไหล่ ฉันคิดว่าฉันจะกลับไปหามันในภายหลัง จากนั้นเมื่อทำการรีบู๊ตระบบจะไม่สามารถติดตั้งอาเรย์การโจมตีได้เลย ฉันลบมันออกจาก fstab เพื่อที่ฉันจะสามารถบูทระบบได้และตอนนี้ฉันกำลังพยายามที่จะดึงข้อมูลการโจมตี ฉันวิ่งต่อไปนี้: mdadm --create /dev/md0 --assume-clean --level=5 --chunk=64 --raid-devices=3 missing /dev/sdc1 /dev/sdd1 ฉันรู้ว่าขนาดก้อนของฉันคือ 64k และ "หายไป" สำหรับไดรฟ์ที่ถูกเตะออกจากอาร์เรย์ (/ dev / sdb1) ดูเหมือนว่าจะใช้งานได้และ mdadm รายงานว่าอาเรย์ทำงาน "สะอาดลดระดับ" ด้วยไดรฟ์ที่หายไป อย่างไรก็ตามฉันไม่สามารถติดตั้งอาร์เรย์การโจมตีได้ เมื่อฉันลอง: …

1
เอกสารประกอบสำหรับการสนับสนุนบล็อก mdadm ที่ไม่ดี
ฉันได้อ่านนิดหน่อยเกี่ยวกับ mdadm (และเคอร์เนล) ตอนนี้มีการสนับสนุนบล็อกที่ไม่ดี แต่ฉันมีปัญหาในการค้นหาเอกสารที่มีประโยชน์ในเรื่องนี้ รายการบล็อกที่ไม่ดีสำหรับดิสก์ X ซ้ำกับดิสก์ทั้งหมดในอาร์เรย์หรือไม่ ดิสก์ที่มีบล็อกที่ไม่ดีจะมีการระบุแตกต่างกันใน / proc / mdstat หรือไม่! หากมีดิสก์มากกว่าสองตัวในอาร์เรย์ RAID 6 มีบล็อกที่ไม่ดีเป็นไปได้หรือไม่ที่จะกำหนดเกณฑ์สำหรับจำนวนบล็อกที่ไม่ดีที่ยอมรับได้!

1
การทำความเข้าใจ / proc / mdstat [U_] VS [_U]
เซิร์ฟเวอร์ของฉันตั้งค่าด้วย raid1 ไม่กี่คืนที่ผ่านมา SDA หลุดออกมาอย่างสมบูรณ์และข้อมูลเสียหาย ฉันแทนที่ไดรฟ์โคลนตารางพาร์ทิชันและเพิ่มอาร์เรย์ที่เกี่ยวข้อง ในขณะที่เพิ่ม sda3 (MD2) resync ยังคงล้มเหลวเนื่องจาก sdb มีข้อผิดพลาด I / O ฉันคัดลอกไฟล์ทั้งหมดที่ฉันสามารถบันทึกได้จาก sdb3 ไปยัง sda3, กำหนดค่า RAID ใหม่และแทนที่ sdb ด้วยไดรฟ์ใหม่ ตอนนี้ฉันเพิ่มพาร์ทิชัน sdb ในอาร์เรย์ ความกังวลของฉันเป็นดังนี้: cat /proc/mdstat Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md3 : active raid1 sda4[0] 1822442815 blocks super 1.2 [2/1] [U_] …

1
ไม่พบ RAID1 หลังจากรีบูต
ฉันมี Debian8 พร้อม Open Media Vault อยู่ ฉันกำลังพยายามสร้าง RAID1 ที่มี Seagate Ironwolf 6TB สองตัว ฉันสามารถสร้าง RAID1 สร้างพาร์ติชัน ext4 บนมันและใช้งานได้โดยไม่มีปัญหา ปัญหาคือทุกครั้งที่ฉันรีบูต RAID หายไป ถ้าฉันดูด้วย gparted ฮาร์ดไดรฟ์ทั้งสองไม่มีส่วนเช่นฉันไม่เคยสร้างส่วน ext4 พวกเขา แต่ถ้าฉันดูด้วย testdisk ฉันสามารถค้นหาทุกไฟล์ นอกจากนี้หากฉันพยายามสร้าง RAID อีกครั้งไฟล์จะยังคงอยู่ที่นั่นดังนั้นฉันจะไม่สูญเสียข้อมูลของฉัน หลังจากรีบูตฉันพยายามดูว่าฉันสามารถหา md0 ได้หรือไม่ แต่นี่คือผลลัพธ์ mdadm --detail --scan ARRAY /dev/md127 metadata=1.2 name=NAS:Data UUID=ed696fd2:96feba4f:ab44fb72:b800fb01 ไม่มี md0 เพียง 127! ฉันพยายามด้วยคำสั่งนี้: …
1 linux  raid  mount  raid-1  mdadm 

1
CentOS - mdadm raid1 ไดรฟ์จะไม่เชื่อมต่อกับตำแหน่งเริ่มต้น
ฉันใช้ CentOS 5.5, ระบบ, boot, swap และอื่น ๆ ทั้งหมดอยู่ใน / dev / sda และฉันมีสองพาร์ติชันเดียวที่เหมือนกันไดรฟ์ / dev / sdb1 / dev / sdc1 ที่กำหนดค่าใน RAID1 (โดยใช้ mdadm) มันทำงานได้ดี (กำหนดค่าให้เมานต์ / mnt / data ในไฟล์ fstab) และเมื่อเร็ว ๆ นี้ฉันให้ yum ติดตั้งการอัปเดตอัตโนมัติสองสามอย่างโดยไม่สนใจว่ามันเป็นอะไรและตอนนี้มันไม่ทำงาน Raid ทำงานได้ดี (dmesg แสดงว่าโหลดอย่างถูกต้องแล้ว) mdstat แสดง: # cat /proc/mdstat Personalities : …

1
การทำงานของ MD ที่ซับซ้อน RAID10 จะทำเครื่องหมายว่าไดรฟ์ทั้งหมดเป็นอะไหล่ทันที
เช้าวันนี้ในระหว่างการอ่านที่มีความยาว ~ 1.5TB ส่งข้อมูลไปยังไคลเอนต์ NFS อาร์เรย์ md complex-RAID10 ของฉันหยุดทำงานทันทีจากนั้นส่งสมาชิกสี่คนที่เป็น "ไม่สด" และไม่สามารถเริ่มต้นใหม่ได้ การตรวจสอบ mdstat จะแสดงไดรฟ์ทั้งหมดที่พิจารณาว่าเป็น "อะไหล่" ทำงานบนเดเบียน 7. 6x HGST Deskstar NAS, สี่รันบนการ์ดเสริม Marvell 88SE9230 PCIe และอีกสองอันบน ICH7 SATA ภายใน ไดรฟ์ทั้งหมดผ่าน SMART โดยไม่มีการจัดสรรใหม่ ไดรฟ์สี่ตัวที่ถูกทิ้งทั้งหมดอยู่ในการ์ด Marvell แต่ก็มี sda, sdb, sdc และ sdd และฉันรู้สึกว่ามันไม่จำเป็นต้องเป็นคอนโทรลเลอร์ซึ่งฉันได้ทดสอบและทำงานได้ดีต่อไป ฉันเชื่อว่าข้อมูลทั้งหมดในอาร์เรย์นี้ควรสำรองไว้ แต่ฉันไม่แน่ใจและข้อมูลทั้งหมดที่จะจัดการนั้นมีความสำคัญอย่างยิ่ง เวิร์กโฟลว์การจัดเก็บของฉันอยู่ในช่วงการเปลี่ยนภาพในขณะนี้และการสำรองข้อมูลนี้อยู่ทั่ว ฉันจะเริ่มต้นสิ่งนี้อีกครั้งได้อย่างไร บางคนแนะนำว่าล้มเหลวและลบแต่ละไดรฟ์และเพิ่มเข้าไปใหม่บางคนแนะนำให้เริ่มต้นอาร์เรย์ด้วย - บังคับและอื่น ๆ ยังคงบอกว่าจะสร้างอาร์เรย์ใหม่ด้วย …
1 linux  raid  nas  storage  mdadm 

2
/ dev พาร์ติชันหายไป mdadm จึงเสีย วิธีการรับ Linux เพื่อดูพาร์ติชัน?
อัพเกรดกล่อง Linux และเปลี่ยนไดรฟ์ราก มีอาเรย์ RAID-5 ของไดรฟ์ SATA สามตัวที่ฉันย้ายไป (ไม่ใช่รูท) ติดตั้งระบบปฏิบัติการใหม่ แต่เป็น CentOS 6.4 ก่อนและหลัง # mdadm --assemble /dev/md1 /dev/sdc1 /dev/sdd1 /dev/sde1 mdadm: cannot open device /dev/sdc1: No such file or directory mdadm: /dev/sdc1 has no superblock - assembly aborted และเพียงพอแล้วไม่มี / dev / sdc1 ไม่มีพาร์ติชัน: # fdisk -l /dev/sdc Disk …
1 linux  centos  raid  mdadm  udev 

2
mdadm บางดิสก์หายไปหลังจากรีบูต
ในระบบเดเบียนไดเรกทอรีบ้านของฉันอยู่ในอาร์เรย์ raid1 md หลังจากการสร้างมันใช้งานได้ดีในบางครั้ง แต่เมื่อไดรฟ์ที่สองหายไปจากอาร์เรย์ # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sda3[1] 1843414335 blocks super 1.2 [2/1] [U_] เมื่อฉันเพิ่มดิสก์ที่หายไปด้วยตนเองตรวจพบว่าเป็นอะไหล่และอาร์เรย์จะถูกสร้างขึ้นใหม่ จนกว่าจะรีบูตครั้งต่อไป ... ฉันจัดการเพื่อแก้ไขได้โดยสร้างอาร์เรย์ใหม่ (ด้วยพาร์ทิชันเดียวกัน) มันใช้งานได้หลายครั้งและตอนนี้ก็เป็นปัญหาเดียวกันอีกครั้ง ดิสก์ทั้งสองเป็นของใหม่การตรวจสอบสมาร์ทก็โอเค ฉันได้ตรวจสอบdmesgแล้วและนี่คือลำดับ "ล้มเหลว" เต็ม: RAID ที่ซิงค์ดี: Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sda3 1 8 19 1 …
1 linux  raid  mdadm 

1
Linux raid10 บน btrfs
ฉันอ่านว่า BTRFS ต้องการดิสก์อย่างน้อย 4 ตัว ( https://btrfs.wiki.kernel.org/index.php/Using_Btrfs_with_Multiple_Devices ) แน่นอน Linux mdadm raid10 ต้องการเพียง 2 ดิสก์เท่านั้น ( http://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10 ) มีบางอย่างเช่น "raid10, f2" ที่จัดทำโดย Linux mdadm ใน BTRFS หรือไม่? ฉันต้องการให้มีการตรวจสอบความสามารถในตัวในอาเรย์การโจมตีถ้าเป็นไปได้
1 linux  raid  mdadm  btrfs  raid-10 

1
raid-1: เพิ่มความเร็วของการสร้างใหม่ในการสร้างใหม่
ฉันเห็นการสร้างอาร์เรย์ RAID-1 ของฉันใหม่ (ครั้งแรกหลังจากเพิ่มพาร์ทิชันที่ 2) และต้องการเพิ่มความเร็ว ดังนั้นฉันตั้ง echo 100000 > /proc/sys/dev/raid/speed_limit_min echo 400000 > /proc/sys/dev/raid/speed_limit_max แต่ก็ยังอยู่ที่ประมาณ 18,000 K / s md1 : active raid1 sdf1[2] sdc1[1] 1953514432 blocks [2/1] [_U] [>....................] recovery = 2.8% (56107456/1953514432) finish=1675.6min spe ed=18871K/sec การเปลี่ยนแปลงเกิดขึ้นเฉพาะกับการสร้างใหม่ที่เพิ่งเริ่มใหม่หรือไม่ แต่เป็นไปได้หรือไม่ที่จะ "เริ่มใหม่" อินเตอร์รัปต์ / สร้างใหม่อีกครั้ง? ฉันต้องเพิ่มดิสก์เป็น usb (2.0) ดิสก์และฉันไม่รู้ว่า usb ของฉันเร็วแค่ไหน
1 raid  mdadm  rebuild 

0
ปัญหาความสนุกมากมายกับตัวควบคุม RAID และ SATA
ฉันซื้อการ์ดจู่โจม 3ware ที่ใช้แล้วออกจากอีเบย์ไม่กี่เดือนหลังและตั้งค่าสีดำคาเวียร์คาเวียร์ 1TB สี่ตัวใน RAID5 การโจมตีด้วยฮาร์ดแวร์สามารถจัดการการเขียนได้ประมาณ 5MB / s โดยไม่ต้องเขียนแคชและฉันไม่มี UPS ดังนั้นการทิ้งการเขียนแคชไว้จึงดูเหมือนเป็นความคิดที่ไม่ดี ดังนั้นฉันจึงยืมไดรฟ์ 2TB สำรองจากที่ทำงานคัดลอกข้อมูลของฉันไปที่นั้นและดำเนินการตั้งค่าการโจมตี mdadm ในการติดตั้ง Debian 6 ใหม่ สิ่งนี้ทำงานได้ดี * เป็นเวลาประมาณสองสัปดาห์จากนั้นฉันเริ่มอ่านข้อผิดพลาด mdadm กล่าวว่าสองไดรฟ์ล้มเหลว ดังนั้นฉันจึงปิดตัวลงบูตเข้าสู่ตัวติดตั้งเดเบียนและเริ่มอ่าน syslog สิ่งแรกที่ฉันเห็นคือสิ่งเหล่านี้: 18 พฤษภาคม 10:31:14 เคอร์เนลโอซิริส: [937288.579972] kswapd0: การจัดสรรหน้าล้มเหลว คำสั่ง: 5, โหมด: 0x4020 18 พฤษภาคม 10:31:14 เคอร์เนลโอซิริส: [937288.579978] Pid: 47, comm: kswapd0 ไม่บริสุทธิ์ …
1 linux  boot  sata  mdadm 

2
บูต Linux จาก RAID1 ที่มีการลดระดับพร้อมกับ / boot ติดตั้งบน md0
ก่อนอื่นฉันอยากจะบอกว่าฉันใหม่มากในการจัดการอาร์เรย์ RAID ใน Linux ดังนั้นคำถามของฉันอาจพื้นฐานมาก แต่ฉันไม่สามารถหาสถานการณ์ที่แน่นอนของฉันบนอินเทอร์เน็ต ฉันมีระบบ RAID1 ที่มี 2 HDD และติดตั้งพาร์ติชันทั้งหมดไว้ด้านบนของอาร์เรย์ RAID รวมถึงพาร์ติชัน / boot ในวันนี้ mdadm เตือนฉันว่าอาเรย์นั้นลดลง (อาจเป็นหนึ่งใน HDD ที่ล้มเหลว) และอาเรย์นั้นถูกเปลี่ยนเป็นสถานะเสื่อมโทรมโดยอัตโนมัติเมื่อฉันตรวจสอบดังนี้: # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[0] 204736 blocks super 1.0 [2/1] [U_] md2 : active raid1 sdb2[0] 151858048 blocks super 1.1 [2/1] …
linux  boot  raid  grub  mdadm 

1
mdadm การใช้หน่วยความจำขนาดใหญ่
สวัสดีฉันสร้าง mdadm RAID 6 (8 WD Red 3 Tb) บนเซิร์ฟเวอร์ Ubuntu 13.10x64 พร้อม ext4 fs เมื่อฉันดาวน์โหลด torrent บนอาเรย์เซิร์ฟเวอร์ RAM จะเต็มไปด้วยขีดสูงสุด (8 Gb) หน่วยความจำว่างเมื่อฉันป้อนด้วยตนเอง sync;echo 3 > /proc/sys/vm/drop_caches เป็นเอาต์พุต mdadm -D /dev/md127: Version : 1.2 Creation Time : Sun Feb 16 18:47:05 2014 Raid Level : raid6 Array Size : 17580801024 …

1
ฉันจะป้องกันไม่ให้ anacron เรียกใช้สคริปต์บางอย่างได้อย่างไร
ฉันใช้ RHEL5 และซอฟต์แวร์ RAID (mdadm) ขณะนี้ฉันอนุญาตให้สคริปต์ cron รายสัปดาห์ 99-raid-check ทำงานตามปกติ (เช้าวันอาทิตย์ต้น) อย่างไรก็ตามหากระบบปิดในช่วงเวลานั้นมันจะทำงานเมื่อระบบบู๊ตล่าช้า เมื่อดูหน้า man สำหรับ anacrontab และ / etc / anacrontab ฉันสามารถเห็นการตั้งค่าปัจจุบันถูกตั้งค่าให้ทำงานทุก 7 วันด้วยความล่าช้า 70 นาทีสำหรับสคริปต์ ฉันต้องสามารถคาดการณ์ได้ว่าจะมี IO สูงในดิสก์ดังนั้นฉันต้องการให้มันทำงานเช้าตรู่ของวันอาทิตย์ถ้ามันเปิดอยู่หรือไม่เลย คำถามของฉันคือฉันจะป้องกัน 99-raid-check ได้อย่างไรเพื่อรอจนกว่าจะถึงสัปดาห์ถัดไปที่จะทำงานและไม่ใช้ anacron
linux  raid  cron  mdadm 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.