คำถามติดแท็ก mdadm

ยูทิลิตี้ linux ที่ใช้ในการจัดการอุปกรณ์ RAID ของซอฟต์แวร์

9
วิธีการขัดจังหวะการโจมตีซอฟต์แวร์ resync?
ฉันต้องการขัดจังหวะการดำเนินการ resync ที่ทำงานอยู่บนการจู่โจมซอฟต์แวร์เดเบียนบีบ (นี่คือ resync เปรียบเทียบที่กำหนดเวลาปกติอาร์เรย์การโจมตียังคงสะอาดในกรณีเช่นนี้อย่าสับสนกับการสร้างใหม่หลังจากดิสก์ล้มเหลวและถูกแทนที่) วิธีหยุดการซิงค์ซ้ำตามกำหนดเวลานี้ในขณะที่กำลังทำงานอยู่ อาร์เรย์การโจมตีอีกรายการหนึ่งคือ "รอการซิงค์อีกครั้ง" เพราะทุกคนจะได้รับการตรวจสอบในวันเดียวกัน (คืนวันอาทิตย์) อีกครั้งหนึ่ง ฉันต้องการหยุดที่สมบูรณ์ของคืนวันอาทิตย์นี้ resyncing [แก้ไข: sudo kill -9 1010ไม่หยุด 1010 เป็น PID ของกระบวนการ md2_resync] ฉันต้องการทราบว่าฉันสามารถควบคุมช่วงเวลาระหว่างการเรนซินและเวลาที่เหลือจนถึงช่วงเวลาถัดไปได้อย่างไร [Edit2: สิ่งที่ฉันทำตอนนี้คือการทำให้การซิงค์ช้าลงมากดังนั้นจึงไม่รบกวนอีกต่อไป: sudo sysctl -w dev.raid.speed_limit_max=1000 นำมาจากhttp://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html ในตอนกลางคืนฉันจะตั้งค่ากลับเป็นค่าสูงดังนั้น resync จึงสามารถยุติได้ วิธีแก้ปัญหานี้ใช้ได้สำหรับสถานการณ์ส่วนใหญ่อย่างไรก็ตามมันจะน่าสนใจที่จะทราบว่าสิ่งที่ฉันถามเป็นไปได้ ตัวอย่างเช่นดูเหมือนว่าจะไม่สามารถสร้างอาร์เรย์ได้ในขณะที่กำลังซิงค์หรือซิงค์ "รอ"

5
กู้คืนข้อมูล RAID 5 หลังจากสร้างอาร์เรย์ใหม่แทนที่จะใช้ซ้ำ
กรุณาช่วยด้วย - ฉันเป็นคนใหม่ที่มีอาการปวดหัวครั้งใหญ่ในมือ (สถานการณ์พายุสมบูรณ์แบบ) ฉันมี hdd 3 1tb บน ubuntu 11.04 ที่กำหนดค่าเป็นซอฟต์แวร์ RAID 5 ข้อมูลถูกคัดลอกทุกสัปดาห์ไปยังอีกเครื่องหนึ่งแยกออกจากฮาร์ดไดรฟ์ของคอมพิวเตอร์จนกว่าจะล้มเหลวอย่างสมบูรณ์และถูกทิ้งไป ไม่กี่วันก่อนเรามีไฟดับและหลังจากรีบูตกล่องของฉันจะไม่ติดการโจมตี ในภูมิปัญญาที่ไม่มีที่สิ้นสุดของฉันฉันเข้า mdadm --create -f... คำสั่งแทน mdadm --assemble และไม่ได้สังเกตการเลียนแบบที่ฉันได้ทำจนกระทั่งหลังจากนั้น มันเริ่มต้นอาร์เรย์ที่เสื่อมโทรมและดำเนินการสร้างและซิงค์ซึ่งใช้เวลาประมาณ 10 ชั่วโมง หลังจากที่ฉันกลับมาฉันเห็นว่าอาเรย์นั้นสำเร็จและทำงานได้ แต่การจู่โจมไม่ได้ ฉันหมายถึงไดรฟ์แต่ละตัวถูกแบ่งพาร์ติชัน (ประเภทพาร์ติชันf8) แต่md0อุปกรณ์ไม่ได้ ตระหนักถึงความสยองขวัญในสิ่งที่ฉันทำฉันพยายามค้นหาวิธีแก้ปัญหา ฉันแค่อธิษฐานที่--createไม่ได้เขียนทับเนื้อหาทั้งหมดของฮาร์ดไดรฟ์ ใครก็ได้โปรดช่วยฉันด้วยสิ่งนี้ - ข้อมูลที่อยู่ในไดรฟ์นั้นมีความสำคัญและไม่ซ้ำใคร ~ 10 ปีของภาพถ่ายเอกสาร ฯลฯ เป็นไปได้หรือไม่ที่การระบุฮาร์ดไดรฟ์ที่เข้าร่วมในลำดับที่ไม่ถูกต้องสามารถทำการmdadmเขียนทับได้ เมื่อฉันทำ mdadm --examine --scan ฉันได้รับสิ่งที่ชอบ ARRAY /dev/md/0 metadata=1.2 …

5
วิธีที่ดีที่สุดในการปลูกฝังซอฟต์แวร์ Linux RAID 1 เป็น RAID 10
mdadm ดูเหมือนจะไม่รองรับการเติบโตของอาเรย์ตั้งแต่ระดับ 1 ถึงระดับ 10 ฉันมีดิสก์สองแผ่นใน RAID 1 ฉันต้องการเพิ่มดิสก์ใหม่สองแผ่นและแปลงอาร์เรย์เป็นดิสก์ RAID 10 จำนวนสี่แถว กลยุทธ์ปัจจุบันของฉัน: ทำการสำรองข้อมูลที่ดี สร้างอาร์เรย์ RAID 10 ดิสก์ 4 อันดับที่ลดลงด้วยดิสก์ที่หายไปสองแผ่น rsync the RAID 1 array with the RAID 10 array. fail and remove หนึ่งดิสก์จากอาร์เรย์ RAID 1 เพิ่มดิสก์ที่พร้อมใช้งานลงในอาร์เรย์ RAID 10 และรอการซิงค์ใหม่ให้เสร็จสมบูรณ์ ทำลายอาร์เรย์ RAID 1 และเพิ่มดิสก์ตัวสุดท้ายลงในอาร์เรย์ RAID 10 ปัญหาคือการขาดความซ้ำซ้อนในขั้นตอนที่ 5 มีวิธีที่ดีกว่า?

3
คุณสามารถเปลี่ยนรุ่นข้อมูลเมตาของอาร์เรย์ที่มีอยู่ได้หรือไม่
ดังนั้นด้วงต้องการรุ่นข้อมูลเมตา 0.90 ฉันสงสัยว่าฉันสามารถเปลี่ยนอาร์เรย์ที่มีอยู่ของฉันที่จะใช้แทนค่าเริ่มต้นซึ่งเป็น 1.2 ด้วยวิธีนี้ฉันไม่ต้องไปติดตั้งใหม่เลย ถ้าใช่ฉันจะทำอย่างไร

3
ฉันจะย้าย RAID ซอฟต์แวร์ Linux ไปยังเครื่องใหม่ได้อย่างไร
ฉันมีเครื่องที่สร้างขึ้นใหม่พร้อมกับการติดตั้ง Gentoo Linux ที่สดใหม่และซอฟต์แวร์ RAID 5 จากเครื่องอื่น (ดิสก์ IDE 4 ตัวที่เชื่อมต่อกับคอนโทรลเลอร์ PCI นอกบอร์ด) ฉันย้ายตัวควบคุมไปยังเครื่องใหม่สำเร็จแล้ว เคอร์เนลตรวจพบไดรฟ์ และฉันใช้ mdadm --examine และตรวจสอบว่ามีการตรวจพบพาร์ติชัน RAID เดียวสะอาดและแม้แต่ในลำดับ "ถูกต้อง" (hde1 == ไดรฟ์ 0, hdg1 == ไดรฟ์ 1 ฯลฯ ) สิ่งที่ฉันไม่สามารถเข้าถึงได้คือไฟล์กำหนดค่าดั้งเดิมจากเครื่องรุ่นเก่า ฉันจะเปิดใช้งานอาร์เรย์นี้อีกครั้งโดยไม่สูญเสียข้อมูลได้อย่างไร

4
ซอฟต์แวร์ Linux mdadm RAID 6 - รองรับการกู้คืนความเสียหายเล็กน้อยหรือไม่?
Wikipedia กล่าวว่า "RAID 2 เป็นระดับ RAID มาตรฐานเดียวนอกเหนือจากการใช้งานบางอย่างของ RAID 6 ซึ่งสามารถกู้คืนข้อมูลที่ถูกต้องโดยอัตโนมัติจากข้อมูลที่เสียหายแบบบิตเดียว" ไม่มีใครรู้ว่าการติดตั้ง RAID 6 mdadm ใน Linux นั้นเป็นหนึ่งในการติดตั้งที่สามารถตรวจจับและกู้คืนโดยอัตโนมัติจากความเสียหายของข้อมูลบิตเดียว สิ่งนี้เกี่ยวข้องกับ CentOS / Red Hat 6 หากสิ่งนั้นแตกต่างจากรุ่นอื่น ฉันพยายามค้นหาทางออนไลน์ แต่ไม่มีโชคมาก ด้วยอัตราความผิดพลาดของ SATA คือ 1 ใน 1E14 บิตและดิสก์ SATA 2TB ที่มี 1.6E13 บิตนี่จึงเกี่ยวข้องอย่างยิ่งกับการป้องกันข้อมูลเสียหาย แก้ไข 17 มิ.ย. 2015 ฉันเชื่อว่านี่เป็นเรื่องที่ฉันกังวลน้อยกว่าเดิม - ดูที่ฮาร์ดดิสก์ / SSD - การตรวจจับและการจัดการข้อผิดพลาด - …

2
ตรวจสอบว่าพาร์ทิชันถูกจัดตำแหน่งใน Linux ด้วย RAID และ LVM
ไม่มีใครรู้ขั้นตอนในการตรวจสอบว่าระบบไฟล์ XFS ที่ด้านบนของ LVM และ md RAID นั้นได้รับการจัดตำแหน่งอย่างเหมาะสมในอาร์เรย์ 4096 ไบต์หรือที่รู้จักกันว่าดิสก์เซ็กเตอร์"รูปแบบขั้นสูง"หรือไม่ อ้างอิงบางอย่างคือ: http://www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning -filesystems ต่อการใช้ SSDs-ลบบล็อกขนาด / บริบทของคำถามนี้เกี่ยวกับ NAS ใหม่ของ Stack Overflow: http://blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
15 linux  raid  partition  mdadm  xfs 

3
mdadm raid5 กู้คืนความล้มเหลวของดิสก์สอง - ด้วยการบิด (ลำดับไดรฟ์)
ให้ฉันรับทราบก่อนว่าฉันทำผิดพลาดและฉันมีการสำรองข้อมูลส่วนใหญ่แต่ไม่ใช่ข้อมูลทั้งหมดใน RAID นี้ ฉันยังมีความหวังในการกู้คืนข้อมูลที่เหลือ ฉันไม่มีเงินพอที่จะนำไดรฟ์ไปยัง บริษัท ผู้เชี่ยวชาญด้านการกู้คืน ความผิดพลาด # 0 ไม่มีการสำรองข้อมูล 100% ฉันรู้ว่า. ฉันมีmdadmระบบ RAID5 4x3TB ไดรฟ์ / dev / SD [จะ] /dev/sd[b-e]1ทั้งหมดที่มีหนึ่งพาร์ทิชัน ฉันรู้ว่า RAID5 บนไดรฟ์ที่มีขนาดใหญ่มากมีความเสี่ยง แต่ฉันก็ทำเช่นนั้นต่อไป เหตุการณ์ล่าสุด RAID ลดลงหลังจากความล้มเหลวของไดรฟ์สองตัว หนึ่งไดรฟ์ [/ dev / sdc] หายไปจริงๆอีกอันหนึ่ง [/ dev / sde] กลับมาขึ้นหลังจากวัฏจักรพลังงาน แต่ไม่ได้ถูกเพิ่มเข้าไปใน RAID อีกครั้งโดยอัตโนมัติ ดังนั้นฉันจึงเหลืออุปกรณ์ RAID 4 ตัวที่มีเพียง 2 ไดรฟ์ที่ใช้งานอยู่ …

3
อธิบาย md's raid10, f2
ฉันรู้ว่า RAID ส่วนใหญ่ทำงานอย่างไร แต่ฉันสะดุดใน โหมดraid10, f2 ที่แนะนำในขณะที่ทำการค้นคว้าซอฟต์แวร์ linux ฉันไม่เข้าใจจริงๆว่ามันทำงานอย่างไรกับดิสก์ 2 หรือ 3 แผ่น บางคนสามารถอธิบายให้ฉันได้ไหม หรือชี้ให้ฉันเป็นบทความที่ดีจริง ๆ ที่อธิบายได้อย่างไร

1
ถาม: MDADM mismatch_cnt> 0. มีวิธีใดบ้างในการระบุว่าบล็อกใดที่ไม่เห็นด้วย?
ตกลง. หลังจากการขัดจังหวะเป็นประจำ MDADM RAID5 ของฉันกำลังรายงาน mismatch_cnt = 16 ตามที่ฉันเข้าใจซึ่งหมายความว่าในขณะที่ไม่มีอุปกรณ์รายงานข้อผิดพลาดการอ่านมี 16 บล็อกซึ่งข้อมูลและพาริตีไม่เห็นด้วย คำถาม # 1: หนึ่งสามารถรับรายการของบล็อกเหล่านี้หรือไม่ คำถาม # 2: สมมติว่า # 1 เป็นไปได้เนื่องจากระบบไฟล์พื้นฐานคือ EXT4 มีวิธีในการระบุไฟล์ที่เกี่ยวข้องกับบล็อกเหล่านี้หรือไม่ ฉันมีการสำรองข้อมูลแบบ nearline และในโลกอุดมคติฉันสามารถแยกอาร์เรย์สดกับข้อมูลสำรองเพื่อค้นหาไฟล์ใด ๆ ที่เสียหายอย่างเงียบ ๆ แต่ความจริงก็คือการเรียกคืนข้อมูลสำรอง 6TB จะมีทั้งราคาแพงและใช้เวลานาน การรู้ตำแหน่งที่จะมองและสิ่งที่จะฟื้นตัวจะทำให้สิ่งต่าง ๆ ง่ายขึ้นมาก (ฉันควรสังเกตุว่าฉันเรียกใช้ตัวขัด RAID ด้วยตัวเลือก 'ตรวจสอบ' เท่านั้นการใช้ตัวขัดด้วยตัวเลือก 'ซ่อม' ดูเหมือนอันตรายอย่างยิ่งเพราะ MDADM รู้เพียงว่าข้อมูลหรือพาริตี้ผิด แต่ไม่รู้ ดูเหมือนว่ามีโอกาส 50% ที่ MDADM …
12 linux  mdadm 

3
ปรับขนาดอาร์เรย์ RAID1 ด้วย mdadm ได้อย่างไร
ฉันใช้งาน Ubuntu 11.04 (เคอร์เนล 2.6.38-11) ฉันแทนที่ 2x160GB ด้วยไดรฟ์ 2x500GB พวกเขาถูกกำหนดค่าเป็น RAID1 ตารางพาร์ทิชันแสดงขนาดที่เหมาะสม นี่คือ sfdisk: # sfdisk -d /dev/sdb # partition table of /dev/sdb unit: sectors /dev/sdb1 : start= 63, size= 192717, Id=fd, bootable /dev/sdb2 : start= 192780, size= 7807590, Id=fd /dev/sdb3 : start= 8000370, size=968767695, Id=fd /dev/sdb4 : start= 0, …

3
ฉันจะเปลี่ยนชื่ออาเรย์การโจมตี mdadm ได้อย่างไร
ฉันได้รวบรวมอาร์เรย์การโจมตีใหม่เพื่อแทนที่ตัวเก่า อย่างไรก็ตามอาร์เรย์ใหม่นี้ได้กำหนดชื่ออัตโนมัติเป็น / dev / md127 และฉันต้องการเปลี่ยนชื่อเป็น / dev / md3 เพื่อที่ฉันจะได้ไม่ต้องเปลี่ยนการตั้งค่าอื่น ๆ ฉันจะเปลี่ยนชื่ออาเรย์การโจมตี mdadm ได้อย่างไร
12 linux  raid  mdadm 

2
วิธีการกู้คืนอาร์เรย์ mdadm บน Synology NAS ด้วยไดรฟ์ในสถานะ "E"
Synology มีเวอร์ชันที่กำหนดเองซึ่งประกอบด้วยไดรเวอร์ md และชุดเครื่องมือ mdadm ที่เพิ่มค่าสถานะ 'DriveError' ให้กับโครงสร้าง rdev-> ค่าสถานะในเคอร์เนล ผลกระทบสุทธิ - หากคุณโชคร้ายพอที่จะได้รับความล้มเหลวของอาเรย์ (ไดรฟ์แรก), รวมกับข้อผิดพลาดในไดรฟ์ที่สอง - อาเรย์จะเข้าสู่สถานะที่ไม่ให้คุณซ่อมแซม / สร้างอาเรย์ใหม่แม้ว่าการอ่านจากไดรฟ์ ละเอียด. ณ จุดนี้ฉันไม่ได้กังวลจริง ๆ เกี่ยวกับคำถามนี้จากมุมมองของอาเรย์นี้เนื่องจากฉันได้ดึงเนื้อหาออกแล้วและตั้งใจที่จะสร้างขึ้นมาใหม่ แต่ไม่ต้องการมีเส้นทางการแก้ปัญหาในอนาคต เนื่องจากเป็นครั้งที่สองที่ฉันได้รับบิตและฉันรู้ว่าฉันเห็นคนอื่นถามคำถามที่คล้ายกันในฟอรัม การสนับสนุนด้าน Synology มีประโยชน์น้อยกว่า (และส่วนใหญ่ไม่ตอบสนอง) และจะไม่แบ่งปันข้อมูลใด ๆ ที่ทั้งหมดเกี่ยวกับการโจมตีในกล่อง เนื้อหาของ / proc / mdstat: ds1512-ent> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] …

4
apt-get install linux-image-extra ได้รับ“ W: mdadm: /etc/mdadm/mdadm.conf กำหนดไม่มีอาร์เรย์”
เมื่อติดตั้ง: sudo apt-get install \ linux-image-extra-$(uname -r) \ linux-image-extra-virtual ฉันได้รับ: W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. ฉันพบว่าคนอื่นมีปัญหาที่คล้ายกัน: apt-get update mdadm คำเตือนที่น่ากลัว ดังนั้นฉันทำตามคำแนะนำ: /usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf แล้ว: update-initramfs -u แต่ผลลัพธ์คือ: update-initramfs: Generating /boot/initrd.img-4.10.0-30-generic W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. lsb_release -a LSB Version: core-9.20160110ubuntu5-amd64:core-9.20160110ubuntu5-noarch:security-9.20160110ubuntu5-amd64:security-9.20160110ubuntu5-noarch Distributor ID: Ubuntu Description: Ubuntu 17.04 Release: …

5
linux LVM mirror กับ MD mirror
ฉันคิดว่าฉันจำการสร้างมิร์เรอร์เมื่อหลายปีก่อนด้วย LVM และฉันจำสิ่งนี้ไม่ได้ "บันทึก" หรือบางทีฉันอาจสร้างกระจกด้วย mdadm และวาง LVM ไว้ด้านบน ต้องเป็นแบบนั้น บันทึก LVM คืออะไรหากเป็นเพียงมิรเรอร์ สิ่งที่เก็บไว้ที่นั่น? มันมีจุดประสงค์อะไร? ใช้ "--mirrorlog core" ไม่ดีหรือไม่ ข้อเสียคืออะไร ฉันไม่ต้องการมีพาร์ติชันอื่นสำหรับบันทึกถ้าฉันไม่ต้องการ มีคำแนะนำในการใช้เทคโนโลยีใดบ้าง? แม้ว่าฉันจะสร้างกระจกด้วย mdadm ฉันจะใช้ LVM ด้านบนของมัน ดังนั้นในกรณีนี้อาจจะดีกว่าถ้าสร้างการตั้งค่าทั้งหมดด้วย LVM ... นั่นจะเพิ่มประสิทธิภาพการทำงานให้มากขึ้นหรือน้อยลงหรือไม่? ดิสก์ใช้สำหรับการจัดเก็บ Xen domU "ดิสก์" ขออภัยที่ "คำถาม" ไม่ซับซ้อนเพื่อจุดที่ซับซ้อน แนวคิดและข้อเสนอแนะและลิงก์ยินดีต้อนรับมากที่สุด ขอบคุณ!
11 lvm  mdadm  logging  mirror 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.