คำถามติดแท็ก software-raid

โซลูชัน RAID ที่จัดการโดยระบบปฏิบัติการ

3
อธิบาย md's raid10, f2
ฉันรู้ว่า RAID ส่วนใหญ่ทำงานอย่างไร แต่ฉันสะดุดใน โหมดraid10, f2 ที่แนะนำในขณะที่ทำการค้นคว้าซอฟต์แวร์ linux ฉันไม่เข้าใจจริงๆว่ามันทำงานอย่างไรกับดิสก์ 2 หรือ 3 แผ่น บางคนสามารถอธิบายให้ฉันได้ไหม หรือชี้ให้ฉันเป็นบทความที่ดีจริง ๆ ที่อธิบายได้อย่างไร

1
KVM guest io นั้นช้ากว่า host io: ปกติไหม?
ฉันมีการติดตั้งระบบโฮสต์ Qemu-KVM บน CentOS 6.3 HDD 1TB SATA สี่ตัวทำงานใน Software RAID10 Guest CentOS 6.3 ได้รับการติดตั้งใน LVM แยกต่างหาก ผู้คนบอกว่าพวกเขาเห็นการแสดงของแขกเกือบเท่ากับการเป็นเจ้าภาพ แต่ฉันไม่เห็น การทดสอบ i / o ของฉันแสดง 30-70% ประสิทธิภาพช้ากว่าแขกกว่าบนระบบโฮสต์ ฉันพยายามเปลี่ยนตัวกำหนดตารางเวลา (ตั้งค่าelevator=deadlineบนโฮสต์และelevator=noopแขก) ตั้งค่าblkio.weightเป็น 1,000 ใน cgroup เปลี่ยน io เป็น virtio ... แต่การเปลี่ยนแปลงเหล่านี้ไม่ได้ให้ผลลัพธ์ที่สำคัญอะไรเลย นี่เป็นส่วนกำหนดค่าแขก. xml: <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/dev/vgkvmnode/lv2'/> <target dev='vda' …

1
ง่ายต่อการขยายซอฟต์แวร์ Linux RAID 5 พร้อม XFS ปฏิบัติที่ดีที่สุด?
ฉันใช้เครื่อง Ubuntu ของฉันเป็นเซิร์ฟเวอร์ไฟล์สำหรับไคลเอนต์ Windows / Linux / Mac โดยใช้ Samba ฉันต้องการที่จะขยายได้อย่างง่ายดายเพียงแค่เพิ่มฮาร์ดไดรฟ์มากขึ้นโดยไม่ต้องย้ายข้อมูลไปมา นี่คือสิ่งที่ฉันได้ทำไปแล้ว ฉันเพิ่มฮาร์ดไดรฟ์ตัวที่สี่สำเร็จแล้ว ตอนนี้จะเป็นการดีที่ได้ทราบว่าวิธีนี้ควรทำอย่างไร? สิ่งที่ฉันทำผิดหรือสิ่งที่ฉันสามารถทำได้ดีกว่า การสร้างอาเรย์ 3 ไดรฟ์เริ่มต้น ฉันเริ่มต้นด้วยสามไดรฟ์ที่ว่างเปล่า: / dev / sdb, / dev / sdc และ / dev / sdd ครั้งแรกที่ฉันสร้างพาร์ทิชันที่ว่างเปล่าให้กับไดรฟ์ทั้งหมด: $ fdisk /dev/sdX n # Create a new partition p # Primary 1 # First partition [enter] …

2
วิธีการเทียบเท่ากับ Synology Hybrid Raid บน Linux ด้วยตนเอง?
http://forum.synology.com/wiki/index.php/What_is_Synology_Hybrid_RAID%3F Synology เป็นเพียง Linux และใช้ LVM เครื่องมือของพวกเขาทำให้ LVM เป็นอัตโนมัติเพื่อให้ได้สิ่งที่เรียกว่า Hybrid Raid ได้อย่างไร

3
กลุ่มวอลุ่ม LVM แบ่งใช้ระหว่างโฮสต์ KVM / libvirt และแขก: นี่เป็นความคิดที่ไม่ดีใช่หรือไม่
ฉันเพิ่งสร้างโฮสต์เครื่องเสมือนใหม่ที่ใช้ KVM / libvirt ซึ่งประกอบด้วยฮาร์ดไดรฟ์ SATA II 4 ตัวและใช้งาน CentOS 5.5 x86_64 ฉันตัดสินใจที่จะสร้างดิสก์เครื่องเสมือนเป็นโลจิคัลวอลุ่มในกลุ่มวอลุ่ม LVM ที่จัดการเป็นพูลหน่วยเก็บข้อมูล libvirt แทนที่จะใช้วิธีสร้างดิสก์เป็นรูปภาพ qcow สิ่งที่ฉันไม่สามารถตัดสินใจได้คือฉันควรสร้างโลจิคัลวอลุ่มของเครื่องเสมือนในกลุ่มวอลุ่มของโฮสต์ VM หรือในกลุ่มวอลุ่มเฉพาะ ฉันควรเลือกวิธีใดและทำไม วิธีที่ 1: ใช้กลุ่มวอลุ่มของโฮสต์ VM การดำเนินงาน: RAID1 ขนาดเล็กmd0ที่มี/bootระบบไฟล์ RAID10 ขนาดใหญ่ครอบครองพื้นที่ที่เหลือซึ่งมีกลุ่มปริมาณmd1 LVM มีระบบไฟล์รูทและพาร์ติชั่นการแลกเปลี่ยนของโฮสต์ VMvghostvghost สร้างดิสก์เครื่องเสมือนเป็นโลจิคัลวอลุ่มในvghostตามต้องการ ข้อดี: หากระบบไฟล์รูทของโฮสต์ VM ไม่มีพื้นที่ว่างฉันสามารถจัดสรรพื้นที่เพิ่มเติมvghostได้อย่างง่ายดาย ระบบใช้งานแล้ว (แต่ไม่ใช่เรื่องใหญ่สำหรับการเริ่มต้นใหม่) จุดด้อย: ความจริงที่ว่าวิธีนี้ใช้งานได้นอกสถานที่ฉันไม่สามารถสั่นคลอนความรู้สึกว่านี่เป็นความคิดที่ไม่ดี ฉันรู้สึกว่า: นี่อาจเป็นความเสี่ยงด้านความปลอดภัย ในบางจุดในอนาคตฉันอาจพบข้อ จำกัด บางอย่างเกี่ยวกับการตั้งค่าและหวังว่าฉันจะใช้กลุ่มเฉพาะ ระบบ (CentOS, …

5
คุณจะตรวจสอบสุขภาพของดิสก์ที่ทำมิเรอร์ใน Windows ได้อย่างไร?
ฉันมีดิสก์ไดรฟ์แบบไดนามิกบนเซิร์ฟเวอร์ Windows 2003 ของฉัน คุณติดตามสุขภาพของปริมาตรได้อย่างไร? มีวิธีให้เซิร์ฟเวอร์ส่งอีเมลเมื่อมีปัญหาเกี่ยวกับปริมาณหรือไม่ มีวิธีให้เซิร์ฟเวอร์รันการทดสอบ SMART หรือไม่ แก้ไข: ไม่มีอะไรบอกว่า WTF เช่นการเข้าสู่เซิร์ฟเวอร์ลูกค้าเรียกใช้ DISKPART LIST VOLUME และเห็นสิ่งนี้ Volume ### Ltr Label Fs Type Size Status Info ---------- --- ----------- ----- ---------- ------- --------- -------- Volume 0 X xDrive NTFS Mirror 233 GB Failed Rd Volume 1 C NTFS Simple 57 …

11
RAID5 นั้นแข็งแกร่งกว่า RAID1 หรือไม่
ฉันกำลังจะแทนที่อาเรย์ฮาร์ดแวร์ RAID5 รุ่นเก่าด้วยอาเรย์ซอฟต์แวร์ RAID1 แบบลีนุกซ์ ฉันกำลังคุยกับเพื่อนและเขาอ้างว่า RAID5 นั้นแข็งแกร่งกว่า RAID1 การอ้างสิทธิ์ของเขาคือเมื่อใช้ RAID5 เมื่ออ่านข้อมูลพาริตีจะถูกอ่านเพื่อให้แน่ใจว่าไดรฟ์ทั้งหมดส่งคืนข้อมูลที่ถูกต้อง เขาอ้างว่าในข้อผิดพลาด RAID1 ที่เกิดขึ้นบนไดรฟ์จะไม่มีใครสังเกตเห็นเพราะไม่มีการตรวจสอบดังกล่าวกับ RAID1 ฉันสามารถดูว่ามันจะเป็นจริงได้อย่างไร แต่ก็สามารถเห็นได้ว่าทุกอย่างขึ้นอยู่กับการใช้ระบบ RAID ที่เป็นปัญหา แน่นอนว่าระบบ RAID5 ไม่จำเป็นต้องอ่านและตรวจสอบข้อมูลพาริตีบนการอ่านและระบบ RAID1 สามารถอ่านได้อย่างง่ายดายจากไดรฟ์ทั้งหมดบนการอ่านเพื่อตรวจสอบว่าพวกเขาทั้งหมดถือข้อมูลเดียวกันและบรรลุระดับความทนทานระดับเดียวกัน ( กับการสูญเสียประสิทธิภาพที่สอดคล้องกัน) ดังนั้นคำถามคือระบบ RAID5 / RAID1 ในโลกแห่งความเป็นจริงจะทำอะไร? ระบบ RAID5 ตรวจสอบข้อมูลพาริตีบนการอ่านหรือไม่? มีระบบ RAID1 ที่อ่านจากไดรฟ์ทั้งหมดและเปรียบเทียบข้อมูลที่อ่านหรือไม่

2
โหลดเซิร์ฟเวอร์สูง - [jbd2 / md1-8] ใช้ 99.99% IO
ฉันได้รับการขัดขวางในสัปดาห์ที่ผ่านมา ซึ่งมักจะเกิดขึ้นวันละครั้งหรือสองครั้ง ฉันจัดการเพื่อระบุจาก iotop ที่ [jbd2 / md1-8] ใช้ 99.99% IO ในช่วงเวลาที่โหลดสูงไม่มีการรับส่งข้อมูลสูงไปยังเซิร์ฟเวอร์ รายละเอียดเซิร์ฟเวอร์คือ: AMD Opteron 8 คอร์ RAM 16 GB การจู่โจมซอฟต์แวร์ HDD 2x2.000 GB 7.200 RPM 1 Cloudlinux + Cpanel ปรับ Mysql อย่างเหมาะสม นอกเหนือจากหนามแล้วโหลดมักจะอยู่ที่ประมาณ 0.80 ฉันได้ค้นหาไปรอบ ๆ แต่ไม่พบสิ่งที่ [jbd2 / md1-8] ทำอะไรกันแน่ มีใครมีปัญหานี้หรือใครรู้วิธีแก้ปัญหาที่เป็นไปได้? ขอขอบคุณ. UPDATE: TIME TID PRIO USER DISK …

2
วิธีการกู้คืนอาร์เรย์ mdadm บน Synology NAS ด้วยไดรฟ์ในสถานะ "E"
Synology มีเวอร์ชันที่กำหนดเองซึ่งประกอบด้วยไดรเวอร์ md และชุดเครื่องมือ mdadm ที่เพิ่มค่าสถานะ 'DriveError' ให้กับโครงสร้าง rdev-> ค่าสถานะในเคอร์เนล ผลกระทบสุทธิ - หากคุณโชคร้ายพอที่จะได้รับความล้มเหลวของอาเรย์ (ไดรฟ์แรก), รวมกับข้อผิดพลาดในไดรฟ์ที่สอง - อาเรย์จะเข้าสู่สถานะที่ไม่ให้คุณซ่อมแซม / สร้างอาเรย์ใหม่แม้ว่าการอ่านจากไดรฟ์ ละเอียด. ณ จุดนี้ฉันไม่ได้กังวลจริง ๆ เกี่ยวกับคำถามนี้จากมุมมองของอาเรย์นี้เนื่องจากฉันได้ดึงเนื้อหาออกแล้วและตั้งใจที่จะสร้างขึ้นมาใหม่ แต่ไม่ต้องการมีเส้นทางการแก้ปัญหาในอนาคต เนื่องจากเป็นครั้งที่สองที่ฉันได้รับบิตและฉันรู้ว่าฉันเห็นคนอื่นถามคำถามที่คล้ายกันในฟอรัม การสนับสนุนด้าน Synology มีประโยชน์น้อยกว่า (และส่วนใหญ่ไม่ตอบสนอง) และจะไม่แบ่งปันข้อมูลใด ๆ ที่ทั้งหมดเกี่ยวกับการโจมตีในกล่อง เนื้อหาของ / proc / mdstat: ds1512-ent> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] …

3
แปลงซอฟต์แวร์ linux จาก raid5 เป็น raid6
ปัจจุบันฉันมีไฟล์เซิร์ฟเวอร์ที่มีดิสก์ 1.5 1.5TB ในอาร์เรย์ RAID5 เนื่องจากมันเต็มมากฉันจึงมีดิสก์เพิ่มอีกสามแผ่น (แต่ละอันมีขนาด 1.5TB) ตอนนี้ฉันต้องการเปลี่ยนเป็น RAID6 เนื่องจากพื้นที่ 6TB เพียงพอและฉันต้องการความปลอดภัยที่เพิ่มขึ้นของ raid6 ในขณะที่ฉันมีการสำรองข้อมูลเต็มรูปแบบ - เช่นฉันสามารถสร้างอาร์เรย์ใหม่และกู้คืนข้อมูลสำรองได้ - ฉันต้องการสลับโดยไม่ต้องเรียกคืนข้อมูลสำรอง เป็นไปได้และถ้าใช่เป็นอย่างไร

5
Boot Debian ในขณะที่อาร์เรย์ RAID ถูกลดระดับลง
เมื่อเร็ว ๆ นี้ฉันเจอติดตั้ง Ubuntu Server ในระหว่างการติดตั้งจะถามฉันว่าจะอนุญาตให้ระบบการบูตจากอาร์เรย์ RAID ที่เสื่อมสภาพหรือไม่ (อาจเป็นเพราะฉันติดตั้งระบบลงในอุปกรณ์ RAID1 / dev / md0) นี่คือตัวเลือกอันยิ่งใหญ่ที่มีประโยชน์สำหรับเซิร์ฟเวอร์แบบอัตโนมัติซึ่งก็มีมาแบบออนไลน์หรือไม่อาร์เรย์ RAID ของพวกเขาคือเสื่อมโทรม (ตราบเท่าที่มันไม่ได้ล้มเหลวอย่างสิ้นเชิง) หลังจากการค้นหาอย่างรวดเร็วฉันพบว่ามันทำงานได้ทั้งการอ่านไฟล์/etc/initramfs-tools/conf.d/mdadmการตั้งค่า (BOOT_DEGRADED = ตัวเลือกจริง) หรือโดยการอ่านอาร์กิวเมนต์บรรทัดการบูตเคอร์เนล (bootdegraded = true) คำถาม:มีบางสิ่งที่คล้ายกัน (วิธีการบูตระบบที่มีอาร์เรย์เสื่อมโทรม) ที่ใช้งานได้กับ Debian หรือไม่? ฉันไม่แน่ใจว่าวิธีการที่แน่นอนนี้ใช้งานได้หรือไม่หรือว่ามันมีฟังก์ชั่นเฉพาะนี้ ฉันถามสิ่งนี้เพราะฉันเคยมีอาร์เรย์ RAID5 ในบางระบบและเมื่อปิดระบบที่ไม่เหมาะสมมันไม่สามารถบูตได้จนกว่าฉันจะ "แก้ไข" อาร์เรย์ด้วยตนเองซึ่งพิสูจน์แล้วว่าเป็น PITA ที่สำคัญเนื่องจากเซิร์ฟเวอร์ไม่ได้ทำงานในสถานที่ห่างไกล ไม่มี UPS และไฟฟ้าขัดข้องเกิดขึ้น ดังนั้นฉันจึงถามเพื่อป้องกันปัญหาประเภทนี้ในอนาคต

3
เหตุใด open-iscsi จึงช้ากว่าการเขียนสองครั้งกว่า Samba ผ่าน 10G Ethernet
บนเซิร์ฟเวอร์ไฟล์ในเครื่องของฉันฉันมี RAID-6 บนไดรฟ์ HDD 7x dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync การทดสอบความเร็วในท้องถิ่นให้ความเร็วการเขียน 349 MB / s การเขียนจากระยะไกลไปยัง Samba จาก SSD (> ความเร็วในการอ่าน 2Gb / s) ให้ฉัน 259 MB / s การเขียน แต่การเขียนจากระยะไกลไปยังไดรฟ์ iSCSI (บน Win10 iSCSI ริเริ่ม) ให้ฉันเพียงแค่ 151 Mb / s การเขียน Raid6 config - ขนาดก้อน 128K, Stripe_cache_size = …

4
เหตุใดอุปกรณ์ RAID 10 จึงต้องเริ่มต้นใหม่
เมื่อสร้างอุปกรณ์จู่โจมซอฟต์แวร์ linux เป็นอุปกรณ์ raid10 ฉันสับสนว่าทำไมต้องเริ่มต้น คำถามเดียวกันนี้ใช้กับ raid1 หรือ raid0 จริงๆ ในที่สุดคนส่วนใหญ่จะวางระบบไฟล์บางประเภทไว้ด้านบนของมันและระบบไฟล์นั้นไม่ควรถือว่าข้อมูลใด ๆ ของดิสก์ การเขียนแต่ละครั้งจะมีผลกับดิสก์ทั้งคู่ในการตั้งค่า raid10 หรือ raid1 ที่มีการเขียนมิรเรอร์ N ไว้ ไม่ควรมีเหตุผลใด ๆ ที่การโจมตี 10 จะเริ่มต้นได้ในตอนแรกเพราะจะเกิดขึ้นเมื่อเวลาผ่านไป ฉันสามารถเข้าใจได้ว่าทำไมสำหรับการตั้งค่า RAID5 / 6 ที่มีข้อกำหนดของความเท่าเทียมกัน แต่ถึงอย่างนั้นมันก็ดูเหมือนว่าจะทำได้อย่างเกียจคร้าน เป็นเพียงเพื่อให้ผู้คนรู้สึกดีขึ้นหรือไม่

1
จะปลอดภัยหรือไม่ที่จะปิดเครื่องขณะที่สร้าง / กู้คืน / เพิ่มอาเรย์ RAID5 ที่สร้างด้วย mdadm
ฉันเพิ่งเริ่มการกู้คืนข้อมูลบนไดรฟ์ RAID 5 ตัวในไฟล์เซิร์ฟเวอร์ของฉันและแจ้งว่าใช้เวลานานถึง 691+ นาที ฉันสงสัยว่าจะเกิดอะไรขึ้นกับกระบวนการหากเครื่องสูญเสียพลังงาน - พูดไม่ชัด? ฉันจะต้องเริ่มกระบวนการกู้คืนอีกครั้งหรือไม่ ฉันจะสูญเสียข้อมูลทั้งหมดของ RAID หรือไม่ นอกจากนี้จะเกิดอะไรขึ้นถ้าฉันอยู่ในขั้นตอนของการเพิ่ม RAID และกำลังดับ

2
วิธีแนบ RAID1 ที่มีอยู่กับระบบ Linux ใหม่ได้อย่างไร
ฉันมี RAID1 ในขณะนี้ที่ทำงานบนฮาร์ดไดรฟ์เดียว (ใช่กระจกไม่อยู่) เป็นไปได้ที่จะจัดระเบียบระบบของฉันใหม่โดยใช้อัลกอริทึมต่อไปนี้หรือไม่? ฉันตั้งค่า RAID1 ดิสก์เดียวอีกหนึ่งตัว (ลงบน HDD ชนิดเดียวกันอีกตัว) แบ่งพาร์ติชันแล้วติดตั้งอินสแตนซ์ใหม่ของ Debian ฉันติดตั้งการตั้งค่า RAID1 ดิสก์เดียวแบบเก่าและคัดลอกข้อมูลทั้งหมดจากนั้นไปยัง RAID ใหม่ ฉันฟอร์แมตดิสก์เก่าแล้วรวมเข้าไปในการตั้งค่า RAID ใหม่ ฉันส่วนใหญ่สงสัยจุดที่สอง - ฉันควรทำอย่างไร

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.