ฉันเพิ่งเริ่มใช้ LVM กับเซิร์ฟเวอร์บางตัวสำหรับฮาร์ดไดรฟ์ที่มีขนาดใหญ่กว่า 1 TB มีประโยชน์ขยายและติดตั้งได้ง่าย อย่างไรก็ตามฉันไม่พบข้อมูลใด ๆ เกี่ยวกับอันตรายและข้อ จำกัด ของ LVM
ข้อเสียของการใช้ LVM คืออะไร
ฉันเพิ่งเริ่มใช้ LVM กับเซิร์ฟเวอร์บางตัวสำหรับฮาร์ดไดรฟ์ที่มีขนาดใหญ่กว่า 1 TB มีประโยชน์ขยายและติดตั้งได้ง่าย อย่างไรก็ตามฉันไม่พบข้อมูลใด ๆ เกี่ยวกับอันตรายและข้อ จำกัด ของ LVM
ข้อเสียของการใช้ LVM คืออะไร
คำตอบ:
สรุป
ความเสี่ยงในการใช้ LVM:
ปัญหา LVM สองรายการแรกนั้นรวมกัน: หากการเขียนแคชไม่ทำงานอย่างถูกต้องและคุณสูญเสียพลังงาน (เช่น PSU หรือ UPS ล้มเหลว) คุณอาจต้องกู้คืนจากการสำรองข้อมูลซึ่งหมายถึงการหยุดทำงานที่สำคัญ เหตุผลสำคัญสำหรับการใช้ LVM คือสถานะการออนไลน์ที่สูงขึ้น (เมื่อเพิ่มดิสก์การปรับขนาดระบบไฟล์ ฯลฯ ) แต่สิ่งสำคัญคือการตั้งค่าการเขียนแคชให้ถูกต้องเพื่อหลีกเลี่ยง LVM จริงลดเวลาทำงาน
- อัปเดตเมื่อธันวาคม 2561: อัพเดตสแนปชอตของวัสดุรวมถึงความเสถียรของ ZFS และ btrfs เป็นทางเลือกแทนสแนปชอตของ LVM
การลดความเสี่ยง
LVM ยังคงทำงานได้ดีหากคุณ:
รายละเอียด
ฉันเคยวิจัยเรื่องนี้มาบ้างแล้วในอดีตที่เคยประสบกับข้อมูลสูญหายที่เกี่ยวข้องกับ LVM ความเสี่ยงและปัญหา LVM หลักที่ฉันทราบคือ:
ช่องโหว่ในการเขียนแคชฮาร์ดดิสก์เนื่องจาก VM hypervisors, การแคชดิสก์หรือเคอร์เนล Linux เก่าและทำให้การกู้คืนข้อมูลยากขึ้นเนื่องจากโครงสร้างบนดิสก์ที่ซับซ้อนยิ่งขึ้น - ดูรายละเอียดด้านล่าง ฉันได้เห็นการตั้งค่า LVM ที่สมบูรณ์ในดิสก์หลายตัวได้รับความเสียหายโดยไม่มีโอกาสในการกู้คืนใด ๆ และ LVM พร้อมการแคชการเขียนฮาร์ดดิสก์เป็นการรวมกันที่เป็นอันตราย
data=ordered
ตัวเลือกext3 (หรือdata=journal
เพื่อความปลอดภัยเป็นพิเศษ) รวมทั้งbarrier=1
เพื่อให้แน่ใจว่าการแคชเคอร์เนลไม่ส่งผลกระทบต่อความสมบูรณ์ (หรือใช้ ext4 ซึ่งเปิดใช้งานสิ่งกีดขวางโดยค่าเริ่มต้น ) นี่เป็นตัวเลือกที่ง่ายที่สุดและให้ความสมบูรณ์ของข้อมูลที่ดีในราคาที่คุ้มค่า (ลีนุกซ์เปลี่ยนตัวเลือก ext3 เริ่มต้นเป็นอันตรายไปdata=writeback
อีกสักพักดังนั้นอย่าพึ่งพาการตั้งค่าเริ่มต้นสำหรับ FS)hdparm -q -W0 /dev/sdX
สำหรับไดรฟ์ทั้งหมดใน/etc/rc.local
(สำหรับ SATA) หรือใช้ sdparm สำหรับ SCSI / SAS อย่างไรก็ตามตามรายการใน XFS FAQ (ซึ่งดีมากในหัวข้อนี้) ไดรฟ์ SATA อาจลืมการตั้งค่านี้หลังจากการกู้คืนข้อผิดพลาดของไดรฟ์ - ดังนั้นคุณควรใช้ SCSI / SAS หรือถ้าคุณต้องใช้ SATA แล้วใส่ คำสั่ง hdparm ในงาน cron รันทุก ๆ นาทีการเปิดใช้งานการแคชการเขียนไว้เพื่อประสิทธิภาพ (และการรับมือกับไดรฟ์ที่วางอยู่)
ตัวเลือกที่ซับซ้อนยิ่งขึ้น แต่มีประสิทธิภาพคือการเปิดใช้งานการแคชการเขียน SSD / ฮาร์ดไดรฟ์และพึ่งพาการเขียนเคอร์เนลที่ทำงานกับ LVM บนเคอร์เนล 2.6.33+ (ตรวจสอบซ้ำโดยการค้นหาข้อความ "สิ่งกีดขวาง" ในบันทึก)
คุณควรตรวจสอบให้แน่ใจว่าการตั้งค่า RAID, การตั้งค่า VM hypervisor และระบบไฟล์ใช้อุปสรรคการเขียน (เช่นต้องการไดรฟ์เพื่อล้างการเขียนที่รอดำเนินการก่อนและหลังคีย์เมทาดาทา / เจอร์นัลเขียน) XFS จะใช้สิ่งกีดขวางเป็นค่าเริ่มต้น แต่ ext3 ไม่ได้ดังนั้นด้วย ext3 คุณควรใช้barrier=1
ในตัวเลือกการเมานท์และยังคงใช้data=ordered
หรือdata=journal
ตามข้างบน
SSDมีปัญหาเนื่องจากการใช้แคชการเขียนมีความสำคัญกับอายุการใช้งานของ SSD วิธีที่ดีที่สุดคือใช้ SSD ที่มีตัวเก็บประจุ supercapacitor (เพื่อเปิดใช้งานการล้างแคชเมื่อเกิดไฟฟ้าขัดข้องและด้วยเหตุนี้จึงทำให้แคชไม่สามารถเขียนซ้ำได้
การตั้งค่าไดรฟ์ฟอร์แมตฟอร์แมตขั้นสูง - การเขียนแคชการจัดตำแหน่ง RAID, GPT
pvcreate
การจัดแนว PV เธรดรายการอีเมล LVM นี้ชี้ไปที่งานที่ทำในเมล็ดในช่วงปี 2011 และปัญหาของการเขียนบล็อกบางส่วนเมื่อผสมดิสก์ที่มี 512 ไบต์และ 4 ภาค KiB ใน LV เดียวกู้คืนข้อมูลได้ยากขึ้นเนื่องจากโครงสร้างบนดิสก์ที่ซับซ้อนกว่า :
/etc/lvm
ซึ่งสามารถช่วยคืนค่าโครงสร้างพื้นฐานของ LVs, VGs และ PV แต่จะไม่ช่วยเมตาดาต้าระบบไฟล์ที่สูญหายยากที่จะปรับขนาดระบบไฟล์อย่างถูกต้อง - การปรับขนาดระบบไฟล์ง่ายมักจะได้รับประโยชน์จาก LVM แต่คุณต้องใช้คำสั่งเชลล์ครึ่งโหลเพื่อปรับขนาด FSM ตาม FSM - ซึ่งสามารถทำได้กับเซิร์ฟเวอร์ทั้งหมดและในบางกรณี ด้วยการติดตั้ง FS แต่ฉันจะไม่เสี่ยงต่อการสำรองข้อมูลล่าสุดและใช้คำสั่งทดสอบล่วงหน้าบนเซิร์ฟเวอร์ที่เทียบเท่า (เช่นการกู้คืนความเสียหายจากโคลนเซิร์ฟเวอร์การผลิต)
lvextend
รองรับเวอร์ชันล่าสุดเพิ่มเติมของตัวเลือก-r
( --resizefs
) - ถ้ามีให้ใช้นี่เป็นวิธีที่ปลอดภัยและรวดเร็วกว่าในการปรับขนาด LV และระบบไฟล์โดยเฉพาะอย่างยิ่งถ้าคุณลดขนาด FS และคุณสามารถข้ามส่วนนี้ได้resize2fs
สำหรับ ext3 และหรือlvextend
lvreduce
ขนาดอาจแตกต่างกันเล็กน้อยเนื่องจากความแตกต่างระหว่าง 1 GB (10 ^ 9) และ 1 GiB (2 ^ 30) หรือวิธีการที่เครื่องมือต่าง ๆ ปัดขึ้นหรือลงดูเหมือนว่าขนาด LV ควรใหญ่กว่าขนาด FS โดย 2 เท่าของขนาดทางกายภาพ LVM (PE) - แต่ตรวจสอบลิงค์ด้านบนเพื่อดูรายละเอียดเนื่องจากแหล่งที่มาสำหรับสิ่งนี้ไม่ได้มีสิทธิ์ บ่อยครั้งที่อนุญาตให้ 8 MiB นั้นเพียงพอ แต่อาจดีกว่าถ้าอนุญาตมากกว่าเช่น 100 MiB หรือ 1 GiB เพื่อความปลอดภัย วิธีตรวจสอบขนาด PE และโลจิคัลวอลุ่ม + ขนาด FS ของคุณโดยใช้บล็อก 4 KiB = 4096 ไบต์:
แสดงขนาด PE ในหน่วย KiB:
vgdisplay --units k myVGname | grep "PE Size"
ขนาดของ LVs ทั้งหมด:
lvs --units 4096b
ขนาดของ (ext3) FS ถือว่าขนาดบล็อก 4 KiB FS:
tune2fs -l /dev/myVGname/myLVname | grep 'Block count'
ในทางตรงกันข้ามการตั้งค่าที่ไม่ใช่ LVM ทำให้การปรับขนาด FS นั้นน่าเชื่อถือมากและใช้งานง่ายGpartedและปรับขนาด FSs ที่ต้องการแล้วมันจะทำทุกอย่างให้คุณ บนเซิร์ฟเวอร์คุณสามารถใช้parted
จากเชลล์
ภาพรวมมีความยากในการใช้งานช้าและรถ - ถ้าภาพรวมหมดก่อนการจัดสรรพื้นที่มันจะลดลงโดยอัตโนมัติ แต่ละสแน็ปช็อตของ LV ที่กำหนดคือเดลต้าเทียบกับ LV นั้น (ไม่ใช่กับสแนปชอตก่อนหน้า) ซึ่งอาจต้องการพื้นที่จำนวนมากเมื่อสแน็ปช็อตระบบไฟล์ที่มีกิจกรรมการเขียนที่สำคัญ (ทุกสแน็ปช็อต มีความปลอดภัยในการสร้างสแน็ปช็อต LV ที่มีขนาดเดียวกับ LV ดั้งเดิมเนื่องจากสแนปชอตจะไม่มีพื้นที่ว่างเหลืออยู่เลย
ภาพรวมยังสามารถที่จะช้ามาก (หมายถึง 3-6 ครั้งโดยไม่ต้องช้ากว่า LVM สำหรับการทดสอบ MySQL เหล่านี้ ) - ดูคำตอบนี้ครอบคลุมปัญหาภาพรวมต่างๆ ช้าส่วนหนึ่งเป็นเพราะภาพรวมต้องเขียนหลายซิงโคร
ภาพรวมมีข้อบกพร่องบางอย่างที่สำคัญเช่นในบางกรณีพวกเขาสามารถบูตได้ช้ามากหรือทำให้การบูตล้มเหลวอย่างสมบูรณ์ (เนื่องจากเคอร์เนลสามารถหมดเวลา รอรูท FS ได้เมื่อเป็นสแน็ปช็อต LVM [แก้ไขใน Debian initramfs-tools
update มีนาคม 2015] )
ทางเลือกภาพรวม - ระบบไฟล์และ VM hypervisors
VM / คลาวด์สแนปชอต:
ภาพรวมระบบไฟล์:
สแน็ปช็อตระดับระบบไฟล์ที่ใช้ ZFS หรือ btrfs นั้นใช้งานง่ายและโดยทั่วไปดีกว่า LVM หากคุณใช้โลหะเปลือย (แต่ ZFS ดูเหมือนจะเป็นผู้ใหญ่มากกว่าและติดตั้งได้ยากกว่า):
สแน็ปช็อตสำหรับการสำรองข้อมูลออนไลน์และ fsck
สามารถใช้สแนปชอตเพื่อจัดหาแหล่งข้อมูลที่สอดคล้องกันสำหรับการสำรองข้อมูลตราบใดที่คุณระมัดระวังในการจัดสรรพื้นที่ (สแนปชอตจะมีขนาดเท่ากับการสำรองข้อมูล LV) ดีrsnapshot (ตั้งแต่ 1.3.1) ยังจัดการการสร้างภาพรวม LVM / ลบสำหรับคุณ - เห็นนี้HOWTO บน rsnapshot ใช้ LVM อย่างไรก็ตามโปรดทราบถึงปัญหาทั่วไปเกี่ยวกับสแนปชอตและสแนปชอตไม่ควรถูกพิจารณาว่าเป็นการสำรอง
คุณยังสามารถใช้ LVM snapshots เพื่อทำ fsck ออนไลน์: snapshot LV และ fsck snapshot ในขณะที่ยังคงใช้ FS ไม่ใช่ snapshot หลัก - อธิบายไว้ที่นี่ - อย่างไรก็ตามมันไม่ตรงไปตรงมาทั้งหมดดังนั้นควรใช้e2croncheckตามที่อธิบายโดย Ted Ts 'ผู้ดูแลของ ext3
คุณควร"หยุด" ระบบไฟล์ชั่วคราวขณะทำการถ่ายภาพ - ระบบไฟล์บางอย่างเช่น ext3 และ XFS จะทำเช่นนี้โดยอัตโนมัติเมื่อ LVM สร้างสแน็ปช็อต
สรุปผลการวิจัย
แม้จะมีทั้งหมดนี้ฉันยังคงใช้ LVM ในบางระบบ แต่สำหรับการตั้งค่าเดสก์ท็อปฉันชอบพาร์ติชันดิบ ประโยชน์หลักที่ฉันเห็นได้จาก LVM คือความยืดหยุ่นในการเคลื่อนย้ายและปรับขนาด FS เมื่อคุณต้องมีเวลาในการทำงานสูงบนเซิร์ฟเวอร์ - หากคุณไม่ต้องการระบบ gparted นั้นง่ายกว่าและมีความเสี่ยงในการสูญหายของข้อมูลน้อยกว่า
LVM ต้องการการดูแลการเขียนแคชเนื่องจาก VM hypervisors, ฮาร์ดไดรฟ์ / SSD เขียนแคชและอื่น ๆ - แต่การใช้แคชกับ Linux เป็นเซิร์ฟเวอร์ฐานข้อมูล การขาดการสนับสนุนจากเครื่องมือส่วนใหญ่ ( gparted
รวมถึงการคำนวณขนาดวิกฤตและtestdisk
อื่น ๆ ) ทำให้ใช้งานได้ยากกว่าที่ควร
หากใช้ LVM โปรดใช้สแน็ปช็อตอย่างระมัดระวัง: ใช้ VM / cloud snapshots หากเป็นไปได้หรือตรวจสอบ ZFS / btrfs เพื่อหลีกเลี่ยง LVM อย่างสมบูรณ์ - คุณอาจพบว่า ZFS หรือ btrs นั้นโตเต็มที่เมื่อเทียบกับ LVM ด้วยสแน็ปช็อต
ที่บรรทัดด้านล่าง: หากคุณไม่ทราบเกี่ยวกับปัญหาที่ระบุไว้ข้างต้นและวิธีแก้ไขปัญหาดังกล่าวจะเป็นการดีที่สุดที่จะไม่ใช้ LVM
ฉัน [+1] โพสต์นั้นและอย่างน้อยฉันก็คิดว่าปัญหาส่วนใหญ่มีอยู่ เห็นพวกเขาในขณะที่ใช้เซิร์ฟเวอร์เพียงไม่กี่ 100 และข้อมูล 100TB สำหรับฉัน LVM2 ใน Linux รู้สึกเหมือนเป็น "ความคิดที่ฉลาด" ที่ใครบางคนมี เหมือนบางสิ่งเหล่านี้พวกเขากลายเป็น "ไม่ฉลาด" ในบางครั้ง เช่นไม่มีเคอร์เนลและสถานะผู้ใช้ (lvmtab) ที่แยกออกจากกันอย่างเข้มงวดอาจรู้สึกสมาร์ทที่จะทำไปเพราะอาจมีปัญหาความเสียหาย (ถ้าคุณไม่ได้รับรหัสที่ถูกต้อง)
เพียงแค่นั้นการแยกนี้มีอยู่ด้วยเหตุผล - ความแตกต่างที่แสดงด้วยการจัดการการสูญเสีย PV และการเปิดใช้งาน VG ออนไลน์อีกครั้งด้วยเช่น PVs ที่ขาดหายไปเพื่อนำพวกเขากลับมาเล่น - อะไรคือความสะดวกใน "LVM ดั้งเดิม" (AIX HP-UX) กลายเป็นอึใน LVM2 เนื่องจากการจัดการสถานะไม่ดีพอ และไม่ได้รับฉันพูดคุยเกี่ยวกับการตรวจสอบการสูญเสียองค์ประชุม (ฮ่าฮ่า) หรือรัฐจัดการ (ถ้าผมเอาดิสก์ที่จะไม่ถูกจัดเป็น unavailable. ก็ไม่ได้มีคอลัมน์สถานะแช่ง)
Re: เสถียรภาพ pvmove ... ทำไมเป็น
ข้อมูล pvmove สูญหาย
เช่นบทความอันดับสูงสุดในบล็อกของฉัน hmmm? ตอนนี้ฉันดูดิสก์ที่ข้อมูล lvm phyiscal ยังคงค้างอยู่ที่สถานะจาก mid-pvmove มีบาง memleaks ที่ฉันคิดและความคิดทั่วไปมันเป็นสิ่งที่ดีที่จะคัดลอกข้อมูลบล็อกสดจาก userspace เป็นเรื่องน่าเศร้า คำพูดที่ดีจากรายการ lvm "ดูเหมือนว่า vgreduce --missing ไม่ได้จัดการ pvmove" หมายถึงในความเป็นจริงถ้าดิสก์แยกระหว่าง pvmove แล้วเครื่องมือการจัดการ lvm เปลี่ยนจาก lvm เป็น vi โอ้และยังมีข้อผิดพลาดที่ pvmove ดำเนินการต่อหลังจากข้อผิดพลาดการอ่าน / เขียนบล็อกและในความเป็นจริงไม่ได้เขียนข้อมูลไปยังอุปกรณ์เป้าหมายอีกต่อไป WTF?
Re: Snapshots CoW ทำได้ไม่ปลอดภัยโดยการอัพเดทข้อมูลใหม่เข้าไปในพื้นที่ snapshot lv แล้วทำการรวมกลับคืนเมื่อคุณลบ snap ออก ซึ่งหมายความว่าคุณมี IO เพิ่มขึ้นอย่างหนักในระหว่างการผสานข้อมูลสุดท้ายเข้ากับ LV ดั้งเดิมและที่สำคัญกว่านั้นแน่นอนว่าคุณมีความเสี่ยงสูงกว่าที่ข้อมูลจะเสียหายเนื่องจากไม่สแนปชอตจะหักเมื่อคุณกดปุ่ม ผนัง แต่เดิม
ข้อดีอยู่ที่ประสิทธิภาพการทำงาน 1 การเขียนแทนที่จะเป็น 3 การเลือกอัลกอริทึมที่รวดเร็ว แต่ไม่ปลอดภัยเป็นสิ่งที่เราคาดหวังจากคนอย่าง VMware และ MS บน "Unix" ฉันค่อนข้างจะคาดเดาว่าสิ่งต่าง ๆ จะ "ถูกต้อง" ฉันไม่เห็นปัญหาด้านประสิทธิภาพมากนักตราบใดที่ฉันมีสแนปช็อตสโตร์ในดิสก์ไดรฟ์ที่แตกต่างจากข้อมูลหลัก (และสำรองข้อมูลไปยังอีกที่หนึ่ง)
Re: ปัญหาและอุปสรรคที่ ฉันไม่แน่ใจว่าสามารถตำหนิใน LVM มันเป็นปัญหาของ devmapper เท่าที่ฉันรู้ แต่อาจมีความผิดบางอย่างที่ไม่สนใจเกี่ยวกับปัญหานี้จากเคอร์เนลอย่างน้อย 2.6 จนถึง 2.6.33 AFAIK Xen เป็นไฮเปอร์ไวเซอร์เพียงรายเดียวที่ใช้ O_DIRECT สำหรับเครื่องเสมือนปัญหาที่เคยเป็นเมื่อใช้ "วน" เนื่องจากเคอร์เนล จะยังคงแคชโดยใช้สิ่งนั้น อย่างน้อย VirtualBox มีการตั้งค่าบางอย่างเพื่อปิดการใช้งานสิ่งนี้และ Qemu / KVM โดยทั่วไปดูเหมือนว่าจะอนุญาตการแคช FUSE FS ทั้งหมดกำลังประสบปัญหาที่นั่นด้วย (ไม่มี O_DIRECT)
Re: ขนาด ฉันคิดว่า LVM ไม่ "ปัดเศษ" ของขนาดที่แสดง หรือใช้ GiB อย่างไรก็ตามคุณต้องใช้ขนาด VG Pe แล้วคูณด้วยหมายเลข LE ของ LV ควรให้ขนาดที่ถูกต้องและปัญหานั้นเป็นปัญหาการใช้งานเสมอ มันถูกทำให้แย่ลงโดยระบบไฟล์ที่ไม่สังเกตเห็นสิ่งนี้ระหว่าง fsck / mount (hello, ext3) หรือไม่มีการทำงานออนไลน์ "fsck -n" (hello, ext3)
แน่นอนมันบอกว่าคุณไม่สามารถหาแหล่งที่ดีสำหรับข้อมูลดังกล่าวได้ "LE สำหรับ VRA มีเท่าไหร่" "ออฟเซ็ต phyiscal สำหรับ PVRA, VGDA, ... ฯลฯ " คืออะไร
เมื่อเปรียบเทียบกับ LVM2 ดั้งเดิมเป็นตัวอย่างที่ดีเยี่ยมของ "ผู้ที่ไม่เข้าใจ UNIX จะถูกประณามว่าจะสร้างใหม่ได้ไม่ดี"
อัปเดตสองสามเดือนต่อมา: ฉันได้กดปุ่ม "เต็มภาพรวม" เพื่อทดสอบตอนนี้ หากได้รับเต็มสแนปชอตบล็อกไม่ใช่ LV ดั้งเดิม ฉันผิดที่นั่นตอนที่ฉันโพสต์ข้อความนี้เป็นครั้งแรก ฉันรับข้อมูลผิดจากเอกสารบางอย่างหรือบางทีฉันเข้าใจ ในการตั้งค่าของฉันฉันมักจะหวาดระแวงมากที่จะไม่ปล่อยให้พวกเขาเติมเต็มและดังนั้นฉันจึงไม่เคยได้รับการแก้ไข นอกจากนี้ยังเป็นไปได้ที่จะขยาย / ย่อขนาดสแนปช็อตซึ่งเป็นข้อปฏิบัติ
สิ่งที่ฉันยังคงไม่สามารถแก้ไขได้คือวิธีการระบุอายุของภาพรวม สำหรับประสิทธิภาพการทำงานของพวกเขามีหมายเหตุในหน้าโครงการ "thinp" fedora ซึ่งบอกว่าเทคนิคการถ่ายภาพสแนปชอตกำลังได้รับการแก้ไขเพื่อไม่ให้ช้าลงเมื่อถ่ายภาพแต่ละภาพ ฉันไม่รู้ว่าพวกเขาใช้งานอย่างไร
หากคุณวางแผนที่จะใช้สแน็ปช็อตสำหรับการสำรองข้อมูล - เตรียมพร้อมสำหรับการเข้าชมที่สำคัญเมื่อมีสแนปชอต อ่านรายละเอียดเพิ่มเติมที่นี่ ไม่อย่างนั้นมันก็ดีทั้งหมด ฉันใช้ lvm ในการผลิตเป็นเวลาสองสามปีกับเซิร์ฟเวอร์หลายสิบตัวแม้ว่าเหตุผลหลักของฉันที่จะใช้มันคือสแนปชอตของอะตอมที่ไม่สามารถขยายไดรฟ์ได้อย่างง่ายดาย
btw ถ้าคุณจะใช้ไดรฟ์ 1TB อย่าลืมเกี่ยวกับการจัดตำแหน่งพาร์ติชัน - ไดรฟ์นี้ส่วนใหญ่อาจมีเซกเตอร์กายภาพ 4kB
อดัม
ข้อดีอีกประการหนึ่ง: คุณสามารถเพิ่มฟิสิคัลวอลุ่ม (PV) ใหม่ย้ายข้อมูลทั้งหมดไปยัง PV นั้นแล้วลบ PV เก่าโดยไม่ต้องหยุดให้บริการ ฉันใช้ความสามารถนั้นอย่างน้อยสี่ครั้งในห้าปีที่ผ่านมา
ข้อเสียที่ฉันไม่เห็นชัดเจนยัง: มีเส้นโค้งการเรียนรู้ค่อนข้างสูงชันสำหรับ LVM2 ส่วนใหญ่ในนามธรรมมันสร้างระหว่างไฟล์ของคุณและสื่อพื้นฐาน หากคุณทำงานกับคนเพียงไม่กี่คนที่แชร์งานบ้านบนเซิร์ฟเวอร์หลายชุดคุณอาจพบว่ามีความซับซ้อนเป็นพิเศษสำหรับทีมของคุณโดยรวม ทีมงานขนาดใหญ่ที่อุทิศตนเพื่องานด้านไอทีโดยทั่วไปจะไม่มีปัญหาดังกล่าว
ตัวอย่างเช่นเราใช้งานที่นี่อย่างกว้างขวางในที่ทำงานของฉันและใช้เวลาในการสอนพื้นฐานทั้งทีมภาษาและสิ่งจำเป็นพื้นฐานเกี่ยวกับการกู้คืนระบบที่บูตไม่ถูกต้อง
ข้อควรระวังข้อหนึ่งโดยเฉพาะเพื่อชี้ให้เห็น: หากคุณบูตจากโลจิคัลวอลุ่ม LVM2 คุณต้องทำการกู้คืนยากเมื่อเซิร์ฟเวอร์ขัดข้อง Knoppix และเพื่อน ๆ ไม่มีสิ่งที่ถูกต้องเสมอไป ดังนั้นเราตัดสินใจว่า / boot directory ของเราจะอยู่ในพาร์ติชั่นของตัวเองและจะเล็กและเนทีฟเสมอ
โดยรวมแล้วฉันเป็นแฟนของ LVM2
/boot
แยกจากกันเป็นความคิดที่ดีเสมอ
vgchange -ay
เพื่อค้นหาปริมาตร LVM