คำถามติดแท็ก software-raid

2
RAIDing ด้วย LVM กับ MDRAID ข้อดีและข้อเสีย
ในคำตอบของเขาสำหรับคำถาม "ประเภทการจู่โจมแบบผสม" HBruijn แนะนำให้ใช้ LVM เพื่อดำเนินการ RAID เทียบกับ MDRAID ที่เป็นมาตรฐานมากกว่า หลังจากการตรวจสอบเล็กน้อยดูเหมือนว่า LVM ยังรองรับฟังก์ชั่น RAID ในอดีตฉันเคยใช้ LVM ด้านบนของ MDRAID และไม่ทราบมาก่อนจนถึงตอนนี้ว่า LVM ยังรองรับฟังก์ชั่น RAID ด้วย สิ่งนี้ดูเหมือนจะเป็นการพัฒนาที่ค่อนข้างเร็ว แต่ฉันยังไม่ทราบแน่ชัดว่าเกิดอะไรขึ้นเมื่อใช้งาน ดังนั้นนี่เป็นวิธีทางเลือกในการติดตั้งซอฟต์แวร์ RAID บน Linux อะไรคือข้อดีข้อเสียของวิธีการที่แตกต่างกันทั้งสองนี้? ฉันกำลังมองหาการเปรียบเทียบคุณสมบัติระหว่างสองแนวทางเพื่อให้ผู้คนสามารถตัดสินใจได้ว่าวิธีไหนดีสำหรับพวกเขา ข้อสรุปจากการทดสอบ (เช่นในคุณลักษณะนี้ใช้งานไม่ได้รวมทั้งคุณลักษณะนี้และนี่คือสาเหตุ) ก็โอเคเช่นกันหากคุณรวมข้อมูลของคุณไว้ในคำตอบ ปัญหาเฉพาะบางประการเกี่ยวกับที่อยู่: สมมติว่าฉันต้องการทำ sw RAID + LVM (สถานการณ์ทั่วไป) ฉันควรใช้การสนับสนุน LVM สำหรับ sw RAID หรือไม่และใช้ยูทิลิตี้เดียวแทนสองตัว วิธีการแบบบูรณาการที่มากกว่านี้มีข้อดีหรือไม่ LVMs รองรับ …
51 lvm  raid  software-raid  md 

4
ความแตกต่างระหว่างการสร้างอาร์เรย์ mdadm โดยใช้พาร์ทิชันหรือดิสก์ทั้งหมดโดยตรงคืออะไร
มีใครช่วยอธิบายให้ฉันหน่อยได้ไหมความแตกต่างระหว่างการสร้างmdadmอาร์เรย์โดยใช้พาร์ทิชันหรือดิสก์ทั้งหมดโดยตรงคืออะไร สมมติว่าฉันตั้งใจจะใช้ไดรฟ์ทั้งหมด โปรดทราบว่าพวกเขาอยู่กับ GPT ลองนึกภาพ RAID6 ที่สร้างขึ้นในสองวิธี: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 หรือ: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd มีความแตกต่างหรือไม่? แก้ไข 1:ฉันหมายถึงในตัวอย่างความน่าเชื่อถือหรือความสามารถในการจัดการหรือการกู้คืนในอาร์เรย์ดังกล่าว ฯลฯ แก้ไข 2:ฉันใช้ไดรฟ์ของผู้ผลิตรายอื่น แต่นั่นไม่ใช่คำถามจริงๆ พวกเขาทั้งหมดมีขนาดเท่ากันฉันจะได้รับจุดที่อาจมีผู้ผลิตทำให้ไดรฟ์ขนาดแตกต่างกันเล็กน้อย แต่เพื่อประโยชน์ของคำถามนี้สมมติว่ามันมีขนาดเท่ากัน EDIT3:เรียงลำดับของข้อจำกัดความรับผิดชอบ: จนถึงตอนนี้ฉันมักจะแบ่งพาร์ติชันไดรฟ์

3
วิธีการแทนที่ดิสก์ที่ยังไม่ได้ล้มเหลวในอาร์เรย์ Linux RAID5 อย่างปลอดภัยได้อย่างไร
ฉันมีซอฟต์แวร์ RAID5 array (Linux md) บนดิสก์ 4 ตัว ฉันต้องการแทนที่หนึ่งในดิสก์ด้วยดิสก์ใหม่โดยไม่ต้องวางอาร์เรย์ในสถานะที่เสื่อมโทรมและหากเป็นไปได้ออนไลน์ มันจะเป็นไปได้ยังไง? มันสำคัญเพราะฉันไม่ต้องการ: รับความเสี่ยงที่จะเกิดความเครียดกับดิสก์อื่นดังนั้นอาจเกิดปัญหาระหว่างการสร้างใหม่ รับความเสี่ยงที่จะอยู่ในสถานะ "ไม่เสมอภาค" ดังนั้นฉันจึงไม่มีเครือข่ายความปลอดภัยในบางครั้ง ฉันคิดว่าการทำเช่นนั้นออนไลน์เป็นการถามมากเกินไปและฉันควรคัดลอกข้อมูลดิบ ( dd) ข้อมูลของดิสก์เก่าไปยังดิสก์ใหม่แบบออฟไลน์แล้วแทนที่ แต่ฉันคิดว่าเป็นไปได้ในทางทฤษฎี ... บริบทบางอย่าง : ดิสก์เหล่านั้นทั้งหมดหมุนอย่างต่อเนื่องมานานกว่า 5.5 ปี พวกเขายังคงทำงานได้อย่างสมบูรณ์แบบในขณะนี้และพวกเขาทั้งหมดผ่านการทดสอบตัวเองสมาร์ท (ยาว) อย่างไรก็ตามฉันมีเหตุผลที่จะคิดว่าหนึ่งใน 4 ดิสก์นั้นจะไม่นานกว่านี้อีก (ควรคาดคะเนความล้มเหลว)

3
จะติดตั้ง GRUB อย่างถูกต้องบน soft RAID 1 ได้อย่างไร?
ในการตั้งค่าของฉันฉันมีดิสก์สองแผ่นที่ฟอร์แมตด้วยวิธีดังต่อไปนี้: (GPT) 1) 1MB BIOS_BOOT 2) 300MB LINUX_RAID 3) * LINUX_RAID พาร์ติชันสำหรับเริ่มระบบถูกแมปใน / dev / md0 รูทใน / dev / md1 md0 ถูกจัดรูปแบบด้วย ext2, md1 ด้วย XFS (ฉันเข้าใจว่าการจัดรูปแบบต้องทำบนอุปกรณ์ md ไม่ใช่ใน sd - โปรดบอกฉันว่านี่เป็นสิ่งที่ผิดหรือเปล่า) ฉันจะตั้งค่า GRUB อย่างถูกต้องได้อย่างไรเพื่อให้หากไดรฟ์ตัวหนึ่งล้มเหลวตัวอื่นจะยังคงบู๊ตอยู่ และด้วยการต่อเติมไดรฟ์ที่เปลี่ยนทดแทนจะรวม GRUB ด้วยหรือไม่ ถ้าเป็นไปได้แน่นอน

5
อุปกรณ์ lvm ใต้ / dev / mapper หายไป
คำถามนี้ถูกย้ายจาก Server Fault เนื่องจากสามารถตอบได้ใน Unix & Linux Stack Exchange อพยพ 8 ปีที่ผ่านมา ฉันใช้ Debian squeeze และเรียกใช้ LVM ด้านบนของซอฟต์แวร์ RAID 1 ฉันเพิ่งค้นพบโดยบังเอิญว่าลิงค์ส่วนใหญ่/dev/mapperหายไปแม้ว่าระบบของฉันจะทำงานได้อย่างถูกต้อง ฉันไม่แน่ใจว่าเกิดอะไรขึ้น สิ่งเดียวที่ฉันสามารถจินตนาการได้ว่าเป็นสาเหตุมาจากความพยายามที่ล้มเหลวของฉันในการนำภาชนะบรรจุอาหารของ LXC มาทำงาน ฉันสิ้นสุดการลบไดเรกทอรีที่/cgroup/laughlinสอดคล้องกับที่เก็บ แต่ฉันไม่สามารถจินตนาการได้ว่าเหตุใดจึงควรทำให้เกิดปัญหา /dev/mapperดู (ฉันทำการเปลี่ยนแปลงบางอย่างดูด้านล่าง) โดยประมาณถูกใจ orwell:/dev/mapper# ls -la total 0 drwxr-xr-x 2 root root 540 Apr 12 05:08 . drwxr-xr-x 22 root root 4500 Apr …

5
Linux - การซ่อมแซมบล็อกเสียบนอาเรย์ RAID1 ด้วย GPT
The tl; dr: ฉันจะแก้ไขการบล็อกที่ไม่ดีบนดิสก์ 1 ตัวในอาร์เรย์ RAID1 ได้อย่างไร แต่โปรดอ่านทั้งหมดนี้สำหรับสิ่งที่ฉันได้ลองไปแล้วและข้อผิดพลาดที่เป็นไปได้ในวิธีการของฉัน ฉันพยายามที่จะให้รายละเอียดมากที่สุดเท่าที่จะเป็นไปได้และฉันหวังว่าจะได้รับคำติชม นี่คือสถานการณ์ของฉัน: ฉันมีสองแผ่น 2TB (รุ่นเดียวกัน) จัดตั้งขึ้นในอาร์เรย์ RAID1 mdadmจัดการโดย ประมาณ 6 เดือนที่ผ่านมาฉันสังเกตเห็นบล็อกที่ไม่ดีครั้งแรกเมื่อสมาร์ทรายงาน วันนี้ฉันสังเกตเห็นมากขึ้นและตอนนี้ฉันพยายามที่จะแก้ไข หน้า HOWTO นี้ดูเหมือนจะเป็นบทความเดียวที่ทุกคนเชื่อมโยงเพื่อแก้ไขบล็อกเสียที่ SMART กำลังรายงาน มันเป็นหน้าที่ยอดเยี่ยมเต็มไปด้วยข้อมูลอย่างไรก็ตามมันค่อนข้างล้าสมัยและไม่ได้ระบุการตั้งค่าเฉพาะของฉัน นี่คือความแตกต่างของการกำหนดค่าของฉัน: แทนที่จะเป็นหนึ่งดิสก์ฉันใช้ดิสก์สองตัวในอาร์เรย์ RAID1 หนึ่งดิสก์กำลังรายงานข้อผิดพลาดในขณะที่อีกแผ่นนั้นใช้ได้ HOWTO เขียนด้วยดิสก์เดียวในใจซึ่งถามคำถามต่าง ๆ เช่น 'ฉันจะใช้คำสั่งนี้กับอุปกรณ์ดิสก์หรืออุปกรณ์ RAID' หรือไม่ ฉันใช้ GPT ซึ่ง fdisk ไม่รองรับ ฉันใช้ gdisk แทนและฉันหวังว่ามันจะให้ข้อมูลแบบเดียวกับที่ฉันต้องการ ดังนั้นขอลงไป นี่คือสิ่งที่ฉันได้ทำไปแล้ว แต่ดูเหมือนว่ามันจะไม่ทำงาน โปรดตรวจสอบการคำนวณและวิธีข้อผิดพลาดของฉันอีกครั้ง …

4
วิธีการเมาท์ / กู้คืนข้อมูลบนดิสก์ที่เป็นส่วนหนึ่งของ mdadm raid 1 บนเครื่องอื่นได้อย่างไร
พื้นหลังบางส่วน แผ่นดิสก์นั้นถูก "ทำงานโดย" เพื่อนและกล่าวว่ายังคงไม่บุบสลายไม่เสียหายและยังคงยึด / กู้คืนได้ ดิสก์เป็นส่วนหนึ่งของการโจมตีซอฟต์แวร์ 1 บน Ubuntu 12.04 ดิสก์อื่นในการจู่โจมเดิม 1 ได้รับการฟอร์แมตและใช้เพื่อวัตถุประสงค์อื่นโดยปล่อยให้ดิสก์ปัจจุบัน (ที่มีปัญหา) ยังคงเป็นส่วนหนึ่งทางเทคนิคของการจู่โจมที่ไม่มีอยู่อีกต่อไป สิ่งที่ฉันได้ลองไปแล้ว การติดตั้งพื้นฐาน ฉันเพิ่มรายการใน fstab ทำเครื่องหมายดิสก์เป็น ext3 / ext4 และพยายามเมานต์ เมื่อติดตั้งข้อผิดพลาดต่อไปนี้จะปรากฏขึ้น wrong fs type, bad option, bad superblock on และในdmesg EXT4-fs (sdc1): VFS: Can't find ext4 filesystem ฉันพยายามค้นหาชนิดของระบบไฟล์ของดิสก์แล้วมาด้วย $sudo file -s /dev/sdc /dev/sdc: x86 boot …

2
วิธีการกู้คืนอาร์เรย์ Linux md RAID5 ที่ล้มเหลว
ก่อนหน้านี้ฉันมีระบบ RAID5 ที่บ้าน หนึ่งในสี่ดิสก์ล้มเหลว แต่หลังจากลบแล้วนำกลับมามันก็ดูเหมือนว่าจะตกลงดังนั้นฉันจึงเริ่มซิงค์ใหม่ เมื่อเสร็จฉันก็ตระหนักถึงความสยองขวัญของฉันว่า 3 ใน 4 ของดิสก์นั้นล้มเหลว อย่างไรก็ตามฉันไม่เชื่อว่าเป็นไปได้ มีหลายพาร์ติชันบนดิสก์แต่ละส่วนของอาร์เรย์ RAID ที่แตกต่างกัน md0 เป็นอาร์เรย์ RAID1 ประกอบด้วย sda1, sdb1, sdc1 และ sdd1 md1 เป็นอาร์เรย์ RAID5 ประกอบด้วย sda2, sdb2, sdc2 และ sdd2 md2 เป็นอาร์เรย์ RAID0 ประกอบด้วย sda3, sdb3, sdc3 และ sdd3 md0 และ md2 รายงานดิสก์ทั้งหมดในขณะที่ md1 รายงาน 3 ล้มเหลว (sdb2, …

1
grub-install: file descriptor 3 leaked ในการร้องขอ vgs
ฉันติดตั้ง Debian Jessie บน LVM ในซอฟต์แวร์ RAID 1 เพื่อให้แน่ใจว่า MBR เขียนบนดิสก์ทั้งสองของ RAID 1 ฉันใช้งานdpkg-reconfigure grub-pc(ตามที่แนะนำที่นี่ ) และเลือกดิสก์ทั้งสอง ฉันได้รับข้อผิดพลาดเหล่านั้น: root@bouzin:/home/jerome# dpkg-reconfigure grub-pc Installing for i386-pc platform. File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install File …

3
mdadm: ไม่สามารถลบส่วนประกอบใน RAID 1
ฉันมีพาร์ทิชัน / boot ของฉันในอาร์เรย์ RAID 1 โดยใช้ mdadm อาเรย์นี้มีการลดระดับในอดีตไม่กี่ครั้งและทุกครั้งที่ฉันถอดฟิสิคัลไดรฟ์เพิ่มใหม่ทำให้อาเรย์เป็นปกติโดยใช้ตัวอักษรไดรฟ์ใหม่ ออกจากเดิมยังอยู่ในอาร์เรย์และล้มเหลว ฉันไม่สามารถลบองค์ประกอบทั้งหมดที่ไม่มีอยู่ได้ [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] นี่คือสิ่งที่ฉันพยายามลบไดรฟ์และพาร์ทิชันที่ไม่มีอยู่ ตัวอย่างเช่น/dev/sdb1. [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or …

1
วิธีการรับรายละเอียดของอุปกรณ์ RAID ทั้งนุ่มและแข็ง?
ฉันต้องการตรวจสอบว่าเซิร์ฟเวอร์ของฉันมีการกำหนดค่า RAID ทั้งอ่อนและแข็งหรือไม่ ฉันลองคำสั่งบางอย่างบนเซิร์ฟเวอร์ของฉัน (Suse Enterprise Edition 11): **ms:~ # cat /proc/mdstat Personalities : unused devices: <none> ms:~ #** ฉันพยายามรันraiddev /dev/md0แต่ไม่มีคำสั่ง raiddev ให้ใช้งาน มีคำสั่งอื่นที่จะให้ฉันตรวจสอบระดับการจู่โจมของเซิร์ฟเวอร์หรือไม่?

1
mdadm raid1 และ chunksize (หรือ blockize) บนไดรฟ์ 4k เป็นอย่างไร
ฉันต้องการใช้ไดรฟ์ 3 TB สองตัวในการตั้งค่า mdadm raid1 (โดยใช้ Debian Sequeeze) ไดรฟ์ใช้ภาคฮาร์ดแวร์ 4k แทนแบบดั้งเดิม 512 ไบต์ ฉันสับสนเล็กน้อยเพราะในแง่หนึ่งเคอร์เนลรายงาน: $ cat /sys/block/sdb/queue/hw_sector_size 512 แต่ในทางกลับfdiskกันรายงาน: # fdisk -l /dev/sdb Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 …

2
มีการติดตั้ง Grub ให้กับ MBR ทั้งหมดของอาร์เรย์ RAID โดยค่าเริ่มต้นโดย Debian Installer หรือไม่
ถ้าฉันใช้ตัวติดตั้ง Debian Stable (Squeeze) เพื่อติดตั้ง Debian การบูทจากไดรฟ์ RAID1 คู่หนึ่งมันเขียนด้วงไปยัง MBR ของไดรฟ์ทั้งสอง - ถ้าไม่ฉันควรจะป้องกันความล้มเหลวไดรฟ์ได้อย่างไร - ถ้าฉันโคลน MBR จะยังคงชี้ไปที่อุปกรณ์ที่ล้มเหลวหรือไม่

1
ความหมายของบิตแมปใน mdstat คืออะไร
ไม่นานมานี้ผมได้สร้างอาร์เรย์ RAID ซอฟแวร์ใหม่ ( mdadm) มี 4 ไดรฟ์ใน RAID6 ดูเหมือนว่าจะทำงานได้ดี mdstatดังต่อไปนี้: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> สิ่งที่ดักฟังฉันคือbitmap: 0/8 pagesส่วนที่ฉันไม่เข้าใจ คำถามคือ: นี่เป็นปัญหาที่อาจเกิดขึ้นหรือไม่? …

2
การรอคอย High IO - วิธีการตรวจสอบสาเหตุที่แท้จริง?
ฉันมีอินสแตนซ์ MySQL บนเซิร์ฟเวอร์เฉพาะสองแห่ง หนึ่งสำหรับการผลิตอีกหนึ่งสำหรับแพลตฟอร์มการทดสอบ เซิร์ฟเวอร์ 2 ตัวค่อนข้างเหมือนกันความแตกต่างเพียงอย่างเดียวคือตัวควบคุม RAID และปริมาณเสมือน (HD เหมือนกัน) ในการผลิตมีคอนโทรลเลอร์ HW RAID เฉพาะและโวลุ่ม RAID 10 ในอีกด้านหนึ่งคอนโทรลเลอร์ RAID ดูเหมือนจะเป็นซอฟต์แวร์ (Lenovo ThinkServer RAID 110i) และโวลุ่มนั้นคือ RAID 5 เราสังเกตเห็นว่าระหว่างการคอมมิชชัน MySQL เรามีไอโออิทสูง: while true; do date; ps auxf | awk '{if($8=="D") print $0;}'; sleep 1; done root 26661 0.0 0.0 0 0 …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.