พื้นที่ว่างบน HDD หรือ SSD มีเท่าไหร่


111

ในการกดเทคโนโลยีอย่างไม่เป็นทางการ (เช่นการสื่อสารมวลชน) และในบล็อกเทคโนโลยีออนไลน์และฟอรัมการสนทนาเรามักพบกับคำแนะนำประวัติโดยย่อเพื่อให้มีพื้นที่ว่างบนฮาร์ดไดรฟ์หรือโซลิดสเตตไดรฟ์จำนวนหนึ่ง มีหลายเหตุผลสำหรับสิ่งนี้หรือบางครั้งก็ไม่มีเหตุผล เช่นนี้การเรียกร้องเหล่านี้ในขณะที่อาจมีเหตุผลในทางปฏิบัติมีอากาศในตำนานเกี่ยวกับพวกเขา ตัวอย่างเช่น

  • เมื่อดิสก์ของคุณเต็ม 80% คุณควรพิจารณาให้เต็มและคุณควรลบหรืออัพเกรด หากพวกเขาตีเต็ม90%คุณควรพิจารณาว่ากางเกงตัวเองของคุณติดไฟจริงและตอบโต้ด้วยความฉับไวในปริมาณที่เหมาะสมเพื่อแก้ไขปัญหานั้น ( ที่มา )

  • เพื่อให้การเก็บขยะดำเนินต่อไปอย่างมีประสิทธิภาพสูงสุดคำแนะนำดั้งเดิมมีจุดมุ่งหมายเพื่อให้ 20 ถึง 30 เปอร์เซ็นต์ของไดรฟ์ของคุณว่างเปล่า ( ที่มา )

  • ฉันได้รับแจ้งว่าฉันควรปล่อยให้ฟรีประมาณ 20% สำหรับ HD เพื่อประสิทธิภาพที่ดีกว่าซึ่ง HD ช้าลงจริง ๆ เมื่อใกล้เต็ม ( ที่มา )

  • คุณควรออกจากพื้นที่สำหรับสลับไฟล์และไฟล์ชั่วคราว ขณะนี้ฉันปล่อยให้ฟรี 33% เปอร์เซ็นต์และสาบานว่าจะไม่ได้รับพื้นที่ว่าง HDD ต่ำกว่า 10GB ( ที่มา )

  • ฉันจะบอกว่าโดยทั่วไปแล้ว 15% แต่ด้วยฮาร์ดไดรฟ์ขนาดใหญ่ตอนนี้ adays ตราบใดที่คุณมีเพียงพอสำหรับไฟล์ temp และ swap ไฟล์ของคุณในทางเทคนิคคุณมีความปลอดภัย ( ที่มา )

  • ฉันอยากจะแนะนำ 10% บวกกับ Windows เพราะ Defrag จะไม่ทำงานหากไม่มีไดรฟ์ที่เกี่ยวกับเรื่องนั้นมากเมื่อคุณเรียกใช้ ( ที่มา )

  • โดยทั่วไปคุณต้องการปล่อยให้ว่างประมาณ 10% เพื่อหลีกเลี่ยงการแตกแฟรกเมนต์ ( ที่มา )

  • หากไดรฟ์ของคุณเต็มมากกว่า 75 หรือ 80 เปอร์เซ็นต์อย่างต่อเนื่องการอัพเกรดเป็น SSD ที่มีขนาดใหญ่นั้นควรพิจารณาด้วยเช่นกัน ( ที่มา )

มีการวิจัยใด ๆ ที่ได้รับการตีพิมพ์ในวารสารที่ผ่านการตรวจสอบโดยเพื่อน (peer-reviewed journal) ไม่ว่าจะเป็นร้อยละหรือจำนวนพื้นที่ว่างที่แน่นอนโดยระบบปฏิบัติการระบบแฟ้มและเทคโนโลยีการจัดเก็บเฉพาะ (เช่นแผ่นแม่เหล็กกับสถานะของแข็ง) (ตามหลักการแล้วการวิจัยดังกล่าวจะอธิบายเหตุผลที่ไม่เกินจำนวนพื้นที่ใช้งานที่กำหนดเช่นเพื่อป้องกันไม่ให้ระบบขาดพื้นที่สว็อปหรือเพื่อหลีกเลี่ยงการสูญเสียประสิทธิภาพ)

หากคุณรู้จากการวิจัยใด ๆ ฉันจะขอบคุณถ้าคุณสามารถตอบด้วยลิงค์ไปยังรวมถึงสรุปสั้น ๆ ของการค้นพบ ขอบคุณ!


2
ฉันไม่รู้เกี่ยวกับผลการวิจัย แต่ฉันรู้เกี่ยวกับสิ่งที่ค้นพบของตัวเอง จะไม่มีการปรับประสิทธิภาพ (นอกเหนือจากการเข้าถึงไดเรกทอรีที่ช้าลงเล็กน้อย) ในไดรฟ์เกือบเต็มหากไฟล์ทั้งหมดมีการจัดระเบียบ ปัญหาคือตัวจัดเรียงข้อมูลหลายตัวปรับการกระจายตัวของไฟล์ให้เหมาะสม แต่ในกระบวนการปล่อยให้พื้นที่ว่างมีการแยกส่วนมากยิ่งขึ้นเพื่อให้ไฟล์ใหม่กลายเป็นส่วนย่อยทันที การแตกแฟรกเมนต์ของพื้นที่ว่างแย่ลงมากเมื่อดิสก์เต็ม
AFH

8
@Abdul - คำแนะนำมากมายเกี่ยวกับขนาดไฟล์สวอปนั้นทำให้เข้าใจผิด ความต้องการหลักคือมีหน่วยความจำเพียงพอ (จริงและเสมือน) สำหรับโปรแกรมทั้งหมดที่คุณต้องการให้มีการใช้งานในแต่ละครั้งดังนั้นยิ่งคุณมี RAM น้อยลงเท่าไหร่คุณก็จะต้องสลับมากขึ้นเท่านั้น ดังนั้นการคำนึงถึงสัดส่วนของขนาด RAM (แนะนำบ่อยครั้งเป็นสองเท่า) นั้นผิดนอกจากเป็นขนาดเริ่มต้นโดยพลการจนกว่าคุณจะรู้ว่าคุณต้องการเท่าไหร่ ค้นหาจำนวนหน่วยความจำที่ใช้เมื่อระบบของคุณยุ่งที่สุดจากนั้นเพิ่มเป็นสองเท่าและลบขนาด RAM: คุณไม่ต้องการพื้นที่สว็อปหมด
AFH

2
ฉันคิดว่าสิ่งนี้ขึ้นอยู่กับสิ่งที่คุณกำลังใช้งานไดรฟ์ หากคุณต้องการเพิ่มและลบข้อมูลจำนวนมากออกจากฮาร์ดไดรฟ์ในเซ็กเมนต์ขนาดใหญ่ฉันจะปล่อยให้มีพื้นที่ว่างเพียงพอตามขนาดของไฟล์ที่คุณต้องการย้าย 10-20% ดูเหมือนจะเป็นข้อเสนอแนะทั่วไปที่สมเหตุสมผล แต่ฉันไม่มีอะไรจะสนับสนุนนอกเหนือจากประสบการณ์ส่วนตัว
David

2
@EugenRieck ให้ดูที่ " End of the peer show " ของจอน Turney ( นักวิทยาศาสตร์ใหม่ 22 กันยายน 2533) การตรวจสอบแบบเพื่อน ๆ นั้นไม่สมบูรณ์ แต่มีตัวเลือกที่ดีกว่าเล็กน้อย แม้แต่กระดาษธรรมดาและผิดพลาดก็ควรจะเป็นเท็จมากกว่าคลุมเครือผ่านการอ้างสิทธิ์ในบล็อกหรือโพสต์ฟอรัมทำให้เป็นจุดเริ่มต้นที่ดีกว่าสำหรับการทำความเข้าใจ
sampablokuper

2
@EugenRieck: " peer-review ผู้สร้างรายได้ "; ผู้เผยแพร่บางคนมีจริยธรรมมากขึ้นกว่าคนอื่น ๆ (ในกรณีที่คุณสงสัยฉันรู้ว่าโศกนาฏกรรมของUS v. Aaron Swartz ) " โลกทั้งสองนี้ไม่มีการทับซ้อนกัน " อย่างมีความสุขพวกเขาทำ ที่มหาวิทยาลัยและที่อื่น ๆ ฉันเห็น sysadmins และนักวิชาการได้รับประโยชน์เหมือนกันทั้งจาก SE & PR ได้โปรดอยู่ในหัวข้อนี้ต่อไปขอบคุณ :)
sampablokuper

คำตอบ:


10

มีงานวิจัยใดบ้างที่ได้รับการตีพิมพ์เป็นพิเศษในวารสารที่ได้รับการตรวจสอบโดยเพื่อน […]?

หนึ่งจะต้องย้อนกลับไปมากเกินกว่า 20 ปีของการบริหารระบบหรืออื่น ๆ สำหรับเรื่องนี้ นี่เป็นประเด็นร้อนแรงอย่างน้อยที่สุดในโลกของคอมพิวเตอร์ส่วนบุคคลและระบบปฏิบัติการเวิร์กสเตชันเมื่อ 30 กว่าปีที่แล้ว เวลาที่คน BSD กำลังพัฒนาระบบไฟล์เบิร์กลีย์อย่างรวดเร็วและ Microsoft และ IBM กำลังพัฒนาระบบไฟล์ประสิทธิภาพสูง

วรรณกรรมทั้งสองโดยผู้สร้างกล่าวถึงวิธีการที่ระบบไฟล์เหล่านี้ถูกจัดระเบียบเพื่อให้นโยบายการจัดสรรบล็อกให้ประสิทธิภาพที่ดีขึ้นโดยพยายามทำให้บล็อกไฟล์ติดต่อกันติดกัน คุณสามารถค้นหาการอภิปรายเกี่ยวกับเรื่องนี้และความจริงที่ว่าจำนวนและที่ตั้งของพื้นที่ว่างที่เหลือเพื่อจัดสรรบล็อกมีผลต่อการจัดวางบล็อกและประสิทธิภาพในบทความร่วมสมัยในเรื่องนี้

มันควรจะค่อนข้างชัดเจนตัวอย่างเช่นจากคำอธิบายของอัลกอริทึมการจัดสรรบล็อกของ Berkeley FFS ว่าถ้าไม่มีที่ว่างในกลุ่มกระบอกสูบในปัจจุบันและที่สองและอัลกอริทึมจึงมาถึงทางเลือกระดับที่สี่ ("ใช้การค้นหาแบบละเอียด สำหรับกลุ่มไส้กุญแจทั้งหมด ") ประสิทธิภาพของการจัดสรรดิสก์บล็อกจะประสบเช่นเดียวกับการแตกแฟรกเมนต์ของไฟล์

มันเป็นการวิเคราะห์ที่คล้ายกัน (สิ่งเหล่านี้อยู่ไกลจากการออกแบบระบบไฟล์เพียงอย่างเดียวที่มีจุดประสงค์เพื่อปรับปรุงนโยบายการจัดวางของการออกแบบระบบไฟล์ในเวลานั้น) ซึ่งเป็นภูมิปัญญาที่ได้รับมาตลอด 30 ปีที่ผ่านมา

ตัวอย่างเช่น: dictum ในกระดาษต้นฉบับที่ปริมาณ FFS ถูกเก็บไว้น้อยกว่า 90% เต็มรูปแบบเพื่อไม่ให้เกิดความทุกข์ทรมานซึ่งขึ้นอยู่กับการทดลองที่ทำโดยผู้สร้างสามารถพบซ้ำได้โดยไม่มีการติแม้แต่ในหนังสือระบบไฟล์ Unix ที่ตีพิมพ์ในศตวรรษนี้(เช่น Pate2003 พี. 216) มีคนเพียงไม่กี่คนที่ถามคำถามนี้ถึงแม้ว่า Amir H. Majidimehr ได้ทำศตวรรษก่อนจริง ๆ แล้วโดยกล่าวว่าในทางปฏิบัติแล้ว xe ไม่ได้สังเกตเห็นผลที่ชัดเจน ไม่น้อยเพราะของกลไก Unix จารีตประเพณีที่ขอสงวนที่สุดท้าย 10% สำหรับการใช้งาน superuser หมายความว่า 90% แผ่นดิสก์เต็มรูปแบบได้อย่างมีประสิทธิภาพเต็ม 100% สำหรับผู้ที่ไม่ใช่ superusers- อยู่แล้ว (Majidimehr1996 พี. 68). Bill Calkins ที่แนะนำว่าในทางปฏิบัติสามารถเติมได้ถึง 99% ด้วยขนาดดิสก์ของศตวรรษที่ 21 ก่อนที่จะสังเกตประสิทธิภาพของพื้นที่ว่างต่ำเพราะแม้แต่ 1% ของขนาดดิสก์ที่ทันสมัยก็เพียงพอที่จะมีพื้นที่ว่างที่ไม่มีการแยกส่วน ยังคงที่จะเล่นกับ(Calkins2002 พี. 450)

สิ่งหลังนี้เป็นตัวอย่างของวิธีการรับปัญญาที่อาจผิด มีตัวอย่างอื่น ๆ ของสิ่งนี้ เช่นเดียวกับโลก SCSI และ ATA ของการบล็อกแบบลอจิคัลกับที่อยู่และการบันทึกแบบบิตแทนที่จะโยนออกจากหน้าต่างทั้งหมดการคำนวณเวลาแฝงในการหมุนอย่างระมัดระวังในการออกแบบระบบไฟล์ BSD ดังนั้นกลไกทางกายภาพของ SSD ค่อนข้างหลุดออกจากหน้าต่าง ได้รับภูมิปัญญาที่ใช้กับแผ่น Winchester

ด้วย SSD จำนวนพื้นที่ว่างบนอุปกรณ์โดยรวมเช่นในทุกวอลุ่มบนแผ่นดิสก์และในระหว่างนั้นมีผลทั้งต่อประสิทธิภาพและอายุการใช้งาน และพื้นฐานมากสำหรับแนวคิดที่ว่าไฟล์จะต้องเก็บไว้ในบล็อกที่มีที่อยู่บล็อกแบบลอจิคัลที่ต่อเนื่องนั้นถูกตัดโดยข้อเท็จจริงที่ว่า SSD นั้นไม่มี platters ในการหมุนและหัวเพื่อค้นหา กฎการเปลี่ยนแปลงอีกครั้ง

ด้วย SSDs, แนะนำจำนวนเงินขั้นต่ำของพื้นที่ว่างเป็นจริงมากขึ้นกว่าเดิม 10% ที่มาจากการทดลองกับแผ่นวินเชสเตอร์เบิร์กลีย์ FFS 33 ปีที่ผ่านมา ยกตัวอย่างเช่น Anand Lal Shimpi ให้ 25% ความแตกต่างนี้ประกอบไปด้วยความจริงที่ว่าสิ่งนี้จะต้องเป็นพื้นที่ว่างทั่วทั้งอุปกรณ์ในขณะที่ตัวเลข 10% อยู่ในปริมาณ FFS เดียวและดังนั้นจึงได้รับผลกระทบจากการแบ่งพาร์ติชันของโปรแกรมรู้ว่าตัดพื้นที่ทั้งหมดที่ไม่ได้ จัดสรรให้กับดิสก์ไดรฟ์ที่ถูกต้องโดยตารางพาร์ทิชัน

นอกจากนี้ยังประกอบกับความซับซ้อนเช่น TRIM ตระหนักถึงไดรเวอร์ระบบแฟ้มที่สามารถ TRIM พื้นที่ว่างภายในไดรฟ์ดิสก์และความจริงที่ว่าผู้ผลิต SSD ตัวเองยังอยู่แล้วจัดสรรองศาที่แตกต่างของพื้นที่ที่สงวนไว้ที่ไม่ได้มองเห็นได้ยื่นอุปกรณ์ (เช่นไปยังโฮสต์ ) สำหรับการใช้งานที่หลากหลายเช่นการเก็บขยะและการปรับระดับการสึกหรอ

บรรณานุกรม


5
"บรรณานุกรม" เป็นประโยชน์ไร้ประโยชน์โดยไม่มีการอ้างอิงในข้อความ
ivan_pozdeev

49

แม้ว่าฉันจะไม่สามารถพูดคุยเกี่ยวกับ "การวิจัย" ที่ถูกตีพิมพ์โดย "วารสารที่ได้รับการตรวจสอบโดยเพื่อน" - และฉันก็ไม่ต้องการที่จะต้องพึ่งพาสิ่งเหล่านี้สำหรับงานประจำวัน - ฉันสามารถพูดถึงความเป็นจริงของการผลิตหลายร้อยรายการ เซิร์ฟเวอร์ภายใต้ระบบปฏิบัติการที่หลากหลายในช่วงหลายปีที่ผ่านมา:

มีเหตุผลสามประการที่ทำให้ดิสก์เต็มลดประสิทธิภาพการทำงาน:

  • ความอดอยากในอวกาศฟรี: คิดถึงไฟล์ temp อัปเดตและอื่น ๆ
  • การย่อยสลายระบบไฟล์: ระบบไฟล์ส่วนใหญ่ประสบกับความสามารถในการจัดวางไฟล์อย่างเหมาะสมหากมีพื้นที่ไม่เพียงพอ
  • การลดระดับฮาร์ดแวร์: SSD และดิสก์ SMR ที่ไม่มีพื้นที่ว่างเพียงพอจะแสดงปริมาณงานที่ลดลงและ - ยิ่งแย่ลง - เพิ่มเวลาในการตอบสนองที่เพิ่มขึ้น (บางครั้งมีคำสั่งจำนวนมาก)

จุดแรกนั้นไม่สำคัญโดยเฉพาะอย่างยิ่งเนื่องจากไม่มีระบบการผลิตที่มีสติจะใช้พื้นที่สว็อปในการขยายและย่อขนาดไฟล์

จุดที่สองแตกต่างกันอย่างมากระหว่างระบบไฟล์และเวิร์กโหลด สำหรับระบบ Windows ที่มีภาระงานแบบผสมขีด จำกัด 70% กลายเป็นว่าใช้งานได้ค่อนข้างมาก สำหรับระบบไฟล์ Linux ext4 ที่มีไฟล์น้อย แต่มีขนาดใหญ่ (เช่นระบบการแพร่ภาพวิดีโอ) อาจมีมากถึง 90 +%

ประเด็นที่สามขึ้นอยู่กับฮาร์ดแวร์และเฟิร์มแวร์ แต่โดยเฉพาะ SSD ที่มีคอนโทรลเลอร์ Sandforce สามารถถอยกลับได้อย่างอิสระในการลบบล็อกในปริมาณงานเขียนสูงซึ่งนำไปสู่การเขียนเวลาแฝงที่เพิ่มขึ้นหลายพันเปอร์เซ็นต์ เรามักจะปล่อยให้ฟรี 25% ในระดับพาร์ติชันแล้วสังเกตอัตราการเติมต่ำกว่า 80%

ข้อเสนอแนะ

ฉันรู้ว่าฉันพูดถึงวิธีการตรวจสอบให้แน่ใจว่ามีการบังคับใช้อัตราการส่งสูงสุด บางความคิดแบบสุ่มไม่มีของพวกเขา "ตรวจสอบเพื่อน" (จ่ายปลอมหรือจริง) แต่ทั้งหมดจากระบบการผลิต

  • ใช้ขอบเขตระบบไฟล์: /varไม่ได้อยู่ในระบบไฟล์รูท
  • ตรวจสอบตรวจสอบตรวจสอบ ใช้วิธีแก้ปัญหาแบบสำเร็จรูปหากมันเหมาะกับคุณมิฉะนั้นจะแยกเอาท์พุทdf -hและปล่อยให้สัญญาณเตือนภัยดังขึ้น วิธีนี้จะช่วยให้คุณประหยัดจาก 30 เมล็ดในรูต fs ด้วยการอัพเกรดอัตโนมัติและติดตั้งโดยไม่ต้องใช้ตัวเลือก autoremove
  • ชั่งน้ำหนักการหยุดชะงักของ fs ที่อาจเกิดขึ้นกับค่าใช้จ่ายในการทำให้ใหญ่ขึ้นในตอนแรก: หากคุณไม่ได้อยู่ในอุปกรณ์ฝังตัวคุณอาจเพิ่ม 4G เป็นสองเท่าสำหรับรูท

19
สิ่งนี้มีประโยชน์: มันมีรายละเอียดมากขึ้นและมีพลังในการอธิบายมากกว่าเรื่องเล็ก ๆ ทั่วไป ฉัน upvote มันตาม แต่ฉันต้องการหลักฐานที่มั่นคงมากกว่า "คนในอินเทอร์เน็ตบอกว่านี่เป็นประสบการณ์ของพวกเขา"
sampablokuper

2
ฉันชอบที่จะคิดในขณะที่อ่านคำตอบนี้สิ่งสำคัญคือไม่มีคำตอบแบบ 'สิ้นสุดทั้งหมด' และคุณอาจพบรายละเอียดเพิ่มเติมที่คุณกำลังมองหาโดยคิดถึงการใช้งานแต่ละกรณี ฉันเข้าใจวิธีแก้ปัญหาได้ดีขึ้นที่นี่เมื่อเออเก็นระบุว่ากระบวนการที่สำคัญอาจใช้พื้นที่ที่ว่างสุดท้าย
Pysis

4
ประเด็นแรกนั้นไม่สำคัญเลยตอนนี้มะเร็ง systemd กิน distros ส่วนใหญ่แล้ว /varเติมเต็มและเซิร์ฟเวอร์ของคุณล้มเหลว
chrylis -on strike-

6
Eugen Rieck - ฉันเกลียดที่จะพูด แต่คำตอบของคุณเกี่ยวกับก) คุณทำอะไร; และ b) ทำไมมันถึงมีประโยชน์ ฉันไม่เห็นตัวชี้ไปยังการวิจัยที่เกี่ยวข้องเช่นเกิดอะไรขึ้นถ้าคุณเติมมากกว่า 70% ในระบบ windows โปรดทราบว่าคำถามเดิมนั้นเกี่ยวกับการวิจัยจริง (ไม่จำเป็นต้องผ่านการตรวจสอบโดยเพื่อน)
Ott Toomet

6
@sampablokuper คำแนะนำที่เป็นของแข็งสำหรับคุณ: ลำดับความสำคัญทางวิชาการแตกต่างกันอย่างมากจากลำดับความสำคัญการดำเนินงานในแต่ละวัน นั่นเป็นเหตุผลว่าทำไมการเรียนในระดับวิทยาลัยของคุณจึงไม่ได้เตรียมความพร้อมสำหรับปัญหานี้ นักวิชาการไม่ค่อยสนใจปัญหานี้ในแต่ละวันของระบบเหล่านี้ ตรวจสอบข้อมูลของคุณเสมอเพื่อความมีสติ แต่นอกเหนือจากนั้นให้เชื่อใจผู้ที่ประสบความสำเร็จในการใช้งานระบบเหล่านี้ผ่านวงกลมบนกระดาษ นอกจากนี้คุณยังได้รับประโยชน์จากการทำให้ฝูงชนได้รับข้อมูลของคุณซึ่งจะช่วยลดโอกาสในการได้รับข้อมูลขยะ
jpmc26

29

มีการวิจัยใด ๆ ... ในรูปแบบเปอร์เซ็นต์หรือจำนวนพื้นที่ว่างที่แน่นอนโดยการรวมกันของระบบปฏิบัติการระบบแฟ้มและเทคโนโลยีการเก็บข้อมูล ...

ใน 20 ปีของการบริหารระบบฉันไม่เคยพบงานวิจัยที่แสดงรายละเอียดความต้องการพื้นที่ว่างของการกำหนดค่าต่างๆ ฉันสงสัยว่านี่เป็นเพราะคอมพิวเตอร์มีการกำหนดค่าที่แตกต่างกันมันจะยากที่จะทำเพราะจำนวนที่แท้จริงของการกำหนดค่าระบบที่เป็นไปได้

ในการพิจารณาว่าต้องใช้พื้นที่ว่างเท่าใดระบบต้องมีตัวแปรสองตัว:

  1. พื้นที่ขั้นต่ำที่ต้องการเพื่อป้องกันพฤติกรรมที่ไม่พึงประสงค์ซึ่งตัวเองอาจมีคำจำกัดความของเหลว

    โปรดทราบว่าไม่สามารถกำหนดพื้นที่ว่างที่จำเป็นตามคำจำกัดความนี้ได้โดยลำพังเนื่องจากเป็นการบอกว่าปลอดภัยที่จะขับรถ 80 ไมล์ต่อชั่วโมงไปยังกำแพงอิฐจนกว่าจะถึงจุดที่คุณชนกับมัน

  2. อัตราที่ใช้พื้นที่เก็บข้อมูลซึ่งกำหนดจำนวนพื้นที่ว่างเพิ่มเติมที่สำรองไว้เพื่อมิให้ระบบลดระดับลงก่อนที่ผู้ดูแลระบบจะมีเวลาตอบสนอง

การผสมผสานที่เฉพาะเจาะจงของระบบปฏิบัติการ, ระบบไฟล์, สถาปัตยกรรมสตอเรจพื้นฐาน, พร้อมกับพฤติกรรมของแอพพลิเคชั่น, การกำหนดค่าหน่วยความจำเสมือน, ฯลฯ สร้างความท้าทายให้กับผู้ที่ต้องการให้มีพื้นที่ว่างที่แน่นอน

นั่นเป็นเหตุผลที่มีคำแนะนำ "นักเก็ต" มากมาย คุณจะสังเกตเห็นว่าหลายคนให้คำแนะนำเกี่ยวกับการกำหนดค่าเฉพาะ ตัวอย่างเช่น "หากคุณมี SSD ที่มีปัญหาด้านประสิทธิภาพเมื่อใกล้ความจุให้อยู่ในพื้นที่ว่างมากกว่า 20%"

เนื่องจากไม่มีคำตอบง่ายๆสำหรับคำถามนี้วิธีการที่ถูกต้องในการระบุความต้องการพื้นที่ว่างขั้นต่ำของระบบของคุณคือการพิจารณาคำแนะนำทั่วไปที่หลากหลายในแง่ของการกำหนดค่าเฉพาะของระบบจากนั้นตั้งค่าขีด จำกัด ตรวจสอบและเต็มใจที่จะปรับ เท่าที่จำเป็น

หรือคุณสามารถรักษาพื้นที่ว่างอย่างน้อย 20% เว้นแต่ว่าคุณจะมีโวลุ่ม RAID 42 6 ที่สำรองไว้โดยการรวมกันของ SSD และฮาร์ดดิสก์แบบดั้งเดิมและไฟล์ swap ที่จัดสรรไว้ล่วงหน้า ... (เป็นเรื่องตลกสำหรับคนที่จริงจัง)


8
ขอบคุณสำหรับคำตอบ :) ฉันต้องการรับหนึ่งในคะแนนของคุณ: " มันไม่จำเป็นที่จะต้องให้คำแนะนำในการออกจากพื้นที่ว่างเนื่องจากผลที่ได้จากเครื่องที่เก็บข้อมูลหมดลงเห็นได้ชัดในตัวเอง " ไม่มันไม่ใช่ ซึ่งปรากฏชัด มันน่าประหลาดใจผู้คนมากกว่าที่คุณคาดหวัง และการผสมผสานระหว่างระบบปฏิบัติการระบบไฟล์ ฯลฯ มีแนวโน้มที่จะตอบสนองต่อสถานการณ์นี้ในรูปแบบที่แตกต่างกัน: บางคนอาจเตือน; บางคนอาจล้มเหลวโดยไม่มีการเตือน ใครจะรู้? ดังนั้นมันจะดีมากถ้าได้ส่องแสงมากกว่านี้ ดังนั้นคำถามของฉัน :)
sampablokuper

1
เมื่อผมยืนยันว่ามันชัดเจนในตัวเองมีผลกระทบของเครื่องจัดเก็บหมดผมไม่ได้อธิบายถึงผลกระทบเหล่านั้น แต่ยืนยันว่าการจัดเก็บหมดเครื่องมักจะได้สัมผัสกับผล ในขณะที่ฉันพยายามพิสูจน์ด้วยคำตอบของฉันธรรมชาติของผลที่ตามมาและจำนวนเนื้อที่ว่างที่ "ดีที่สุด" เพื่อหลีกเลี่ยงสิ่งเหล่านี้นั้นมีความจำเพาะสูง ฉันคิดว่าจะลองทำแค็ตตาล็อกทั้งหมด แต่ฉันคิดว่ามันน่าสับสนกว่ามีประโยชน์
Twisty Impersonator

นอกจากนี้หากคุณหมายถึงการถามว่าการกำหนดค่าเฉพาะมีแนวโน้มที่จะตอบสนองต่อพื้นที่ดิสก์น้อย (เช่นคำเตือนปัญหาประสิทธิภาพการทำงานล้มเหลว ฯลฯ ) โปรดแก้ไขคำถามของคุณตามลำดับ
Twisty Impersonator

ฉันจะเพิ่มคำถามพิเศษสามข้อ: 3. อะไรคือกรณีที่มีแนวโน้มมากที่สุดและแย่ที่สุดในการเปลี่ยนแปลงการใช้งานดิสก์ตามการคาดการณ์การเติบโตในอนาคตของธุรกิจของคุณ 4. ค่าใช้จ่ายสำหรับธุรกิจหากคุณใช้พื้นที่ดิสก์หมดและ 5 คุณต้องเพิ่มความจุดิสก์อย่างมีนัยสำคัญ ลูกค้ารายหนึ่งของฉันมีการโจมตีด้วยระบบ zfs 250TB ในกรณีของพวกเขาพวกเขาจำเป็นต้องรู้ล่วงหน้าสองสามสัปดาห์ก่อนการเปลี่ยนแปลงที่สำคัญเนื่องจากต้องใช้เวลาประมาณหนึ่งวันในการเพิ่มดิสก์ที่มีขนาดใหญ่กว่าเข้าไปในอาเรย์ RAID
iheggie

12

แน่นอนว่าตัวไดรฟ์ (HDD หรือ SSD เหมือนกัน) ไม่ได้สนใจอะไรเลยว่ามีการใช้งานกี่เปอร์เซ็นต์นอกเหนือจาก SSD ที่สามารถลบพื้นที่ว่างสำหรับคุณได้ล่วงหน้า ประสิทธิภาพการอ่านจะเหมือนกันทุกประการและประสิทธิภาพในการเขียนอาจแย่ลงใน SSD อย่างไรก็ตามประสิทธิภาพการเขียนไม่สำคัญสำหรับไดร์ฟเกือบเต็มเนื่องจากไม่มีพื้นที่ในการเขียนอะไรเลย

ระบบปฏิบัติการระบบไฟล์และแอปพลิเคชันของคุณจะคาดหวังว่าคุณจะมีพื้นที่ว่างตลอดเวลา 20 ปีที่แล้วเป็นเรื่องปกติที่แอปพลิเคชั่นจะตรวจสอบว่าคุณมีพื้นที่บนไดรฟ์มากน้อยเพียงใดก่อนที่จะพยายามบันทึกไฟล์ของคุณที่นั่น วันนี้แอปพลิเคชั่นสร้างไฟล์ชั่วคราวโดยไม่ต้องขออนุญาตจากคุณและโดยทั่วไปจะมีปัญหาหรือทำงานผิดพลาดเมื่อไม่สามารถทำเช่นนั้นได้

ระบบไฟล์มีความคาดหวังที่คล้ายกัน ตัวอย่างเช่น NTFS ขอสงวนดิสก์ขนาดใหญ่ของคุณสำหรับ MFT แต่ยังคงแสดงพื้นที่ว่างให้คุณฟรี เมื่อคุณเติมดิสก์ NTFS ของคุณเกิน 80% ของความจุคุณจะได้รับการแตกแฟรกเมนต์ MFTซึ่งมีผลกระทบต่อประสิทธิภาพการทำงานจริง

นอกจากนี้การมีพื้นที่ว่างจะช่วยป้องกันการแตกไฟล์ปกติ ระบบไฟล์มักจะหลีกเลี่ยงการแตกไฟล์โดยการหาสถานที่ที่เหมาะสมสำหรับแต่ละไฟล์ขึ้นอยู่กับขนาดของมัน ในดิสก์ที่อยู่ใกล้กับพวกเขาจะมีตัวเลือกน้อยลงดังนั้นพวกเขาจะต้องทำการเลือกที่ด้อยกว่า

บน Windows คุณคาดว่าจะมีพื้นที่ดิสก์เพียงพอสำหรับไฟล์ swapซึ่งสามารถขยายได้เมื่อจำเป็น หากไม่สามารถทำได้คุณควรคาดหวังว่าแอปของคุณจะถูกบังคับให้ปิด การมีพื้นที่สว็อปน้อยมากอาจทำให้ประสิทธิภาพแย่ลง

แม้ว่าการสลับของคุณจะมีขนาดคงที่ แต่การใช้พื้นที่ดิสก์ในระบบไม่สมบูรณ์อาจทำให้ระบบของคุณเสียหายและ / หรือทำให้ไม่สามารถบูทได้ (Windows และ Linux) เนื่องจากระบบปฏิบัติการคาดว่าจะสามารถเขียนลงดิสก์ได้ในระหว่างการบูต ใช่การกดปุ่ม 90% ของการใช้งานดิสก์จะทำให้คุณพิจารณาว่าสีของคุณติดไฟ ฉันไม่เคยเห็นคอมพิวเตอร์ที่ไม่สามารถบู๊ตได้อย่างถูกต้องจนกว่าการดาวน์โหลดล่าสุดจะถูกลบออกเพื่อให้ระบบปฏิบัติการมีพื้นที่ดิสก์เพียงเล็กน้อย


8

สำหรับ SSD ควรมีพื้นที่เหลือเนื่องจากอัตราการเขียนใหม่จะเพิ่มขึ้นและส่งผลเสียต่อประสิทธิภาพการเขียนของดิสก์ 80% เต็มรูปแบบเป็นค่าที่ปลอดภัยสำหรับดิสก์ SSD ทุกรุ่นบางรุ่นล่าสุดอาจทำงานได้ดีแม้จะมีความจุ 90-95% ก็ตาม

https://www.howtogeek.com/165542/why-solid-state-drives-slow-down-as-you-fill-them-up/


1
Mod Up - SSD แตกต่างกันมากกับ HDD แม้ว่ากลไกที่แน่นอนจะแตกต่างกันระหว่างไดรฟ์ แต่ SSD เขียนข้อมูล [แม้แต่ที่อยู่เหมือนกัน] ไปยังตำแหน่ง [ฟรี] ที่แตกต่างกันบนดิสก์และใช้การรวบรวมขยะที่ตามมาเพื่อป้องกันการสึกหรอที่มากเกินไปในที่เดียว ดิสก์ที่ฟูลเลอร์จะมีประสิทธิภาพมากขึ้นเท่านั้น
แบรด

2
นอกจากนี้ยังมีข้อสังเกตว่าเหตุผลที่ดิสก์ "ใหม่กว่า" ทำงานได้ดีก็คือพวกเขาได้เตรียมพื้นที่ว่างที่เหมาะสมซึ่งผู้ใช้ไม่สามารถเข้าถึงได้ ซึ่งหมายความว่าพวกเขามักจะมี "บล็อกว่าง" เพื่อเขียนข้อมูลไปโดยไม่มีวัฏจักร "อ่าน - ลบ - เขียนใหม่" ซึ่งจะทำให้ SSD "เต็ม" ช้าลง
Stuart Brock

1
โปรดทราบว่าSSD ทุกตัวทำสิ่งนี้ไปแล้วในระดับหนึ่งและซ่อนไว้จากคุณ นี่เป็นส่วนหนึ่งของการปรับระดับการสึกหรอ การปล่อยให้มีพื้นที่ว่างมากขึ้นจะช่วยเพิ่มพื้นที่ในการสวมใส่ สิ่งนี้มีประโยชน์สำหรับดิสก์ที่มักจะเขียนโดยเฉพาะอย่างยิ่งถ้าเป็นรุ่น TLC ราคาถูกของ SSD จากนั้นอีกครั้งคุณสูญเสียสิทธิประโยชน์บางอย่างของดิสก์ราคาถูกหากคุณต้องปล่อยให้ฟรี 20% ในที่สุดดิสก์ใหม่ก็ไม่ดีขึ้นอย่างแน่นอน SSD รุ่นแรกคือดิสก์ SLC และมีรอบการลบ 100.000 รอบ TLC ปัจจุบันสามารถต่ำได้ถึง 5,000 - นั่นแย่กว่า 20 เท่า
MSalters

8

"กฎ" แตกต่างกันไปขึ้นอยู่กับความต้องการของคุณ และมีกรณีพิเศษเช่นเช่น ZFS: "ที่ความจุ 90% ZFS จะเปลี่ยนจากการเพิ่มประสิทธิภาพเป็นการใช้พื้นที่ให้เหมาะสมซึ่งมีผลกระทบต่อประสิทธิภาพอย่างมาก" ใช่นี่คือด้านการออกแบบของ ZFS ... ไม่ใช่สิ่งที่ได้จากการสังเกตหรือหลักฐานพอสมควร เห็นได้ชัดว่านี่เป็นปัญหาน้อยกว่าหากพูลหน่วยเก็บข้อมูล ZFS ของคุณประกอบด้วย SSD เพียงอย่างเดียว อย่างไรก็ตามแม้จะมีดิสก์หมุนคุณก็สามารถเข้าถึง 99% หรือ 100% อย่างมีความสุขเมื่อคุณจัดการกับที่จัดเก็บแบบคงที่และคุณไม่จำเป็นต้องมีประสิทธิภาพสูงสุดตัวอย่างเช่นคอลเล็กชั่นภาพยนตร์ที่คุณโปรดปรานตลอดกาล ความปลอดภัยมีความสำคัญ 1.

ถัดไป btrfs - กรณีที่รุนแรง: เมื่อพื้นที่ว่างเหลือน้อยเกินไป (ไม่กี่ MByte) คุณสามารถไปถึงจุดที่ไม่มีผลตอบแทนได้ ไม่การลบไฟล์ไม่ใช่ตัวเลือกเนื่องจากคุณทำไม่ได้ มีพื้นที่ไม่เพียงพอในการลบไฟล์ btrfs เป็นระบบไฟล์ COW (copy-on-write) และคุณสามารถไปถึงจุดที่คุณไม่สามารถแก้ไขข้อมูลเมตาได้อีก ณ จุดนี้คุณยังสามารถเพิ่มที่เก็บข้อมูลเพิ่มเติมลงในระบบไฟล์ของคุณ (ไดรฟ์ USB อาจทำงานได้) จากนั้นลบไฟล์ออกจากระบบไฟล์ที่ขยายออกจากนั้นย่อขนาดระบบไฟล์และลบที่เก็บข้อมูลเพิ่มเติมอีกครั้ง อีกครั้งนี่คือลักษณะบางอย่างที่เกิดจากการออกแบบของระบบไฟล์

ผู้ที่สามารถให้ข้อมูล "ของคุณ (จริงจัง)" อาจเป็นคนที่จัดการกับ "พื้นที่จัดเก็บข้อมูล" ที่จริงจัง (ร้ายแรง) " คำตอบของ Twisty (ดีมาก) กล่าวถึงอาร์เรย์ไฮบริด (ประกอบด้วยการหมุนช้าจำนวนมากราคาถูกดิสก์หมุนเร็วจำนวนมาก SSD จำนวนมาก ... ) ซึ่งทำงานในสภาพแวดล้อมขององค์กรที่ปัจจัย จำกัด หลักคือความเร็วที่ผู้ดูแลระบบเป็น สามารถสั่งอัพเกรดได้ การเปลี่ยนจาก 16T เป็น 35T อาจใช้เวลา 6 เดือน ... ดังนั้นคุณจะจบลงด้วยรายงานที่ได้รับการสนับสนุนอย่างจริงจังซึ่งแนะนำให้ตั้งปลุกของคุณเป็น 50%


2
ชัดเจนว่าคุณไม่เคยใช้พูล zfs ถึง 100% ซึ่งไม่ใช่สิ่งที่ควรทำโดยเจตนา มันเป็นความเจ็บปวดคุณไม่สามารถลบอะไรได้เลยคุณจะต้องตัดทอนไฟล์บางส่วนเพื่อให้สามารถเข้าถึงการเขียนข้อมูลย้อนหลังได้เลยแม้แต่จะสามารถลบอะไร
camelccc

4

มีหลายปัจจัยหลายอย่างที่ส่งผลให้เกิดการตั้งค่าจำนวนมากโดยเฉพาะ ดังนั้นจึงไม่มีตัวเลขที่ยากและรวดเร็วนี่สามารถวัดได้เป็นฟังก์ชั่นของพารามิเตอร์เหล่านั้นเท่านั้น (นั่นอาจเป็นสาเหตุที่ผู้ใช้รายอื่นรายงานว่าไม่มีงานวิจัยเฉพาะในเรื่องนี้โดยเฉพาะ - มีตัวแปรมากเกินไปที่จะรวบรวมข้อสรุปอะไรก็ได้)

  • ฮาร์ดแวร์

    • HDD มีการจัดสรรเซกเตอร์ทั้งหมดตลอดเวลา ดังนั้นจึงไม่สนใจว่าจะมีข้อมูลผู้ใช้ในปัจจุบันจำนวนเท่าใด (สำหรับตัวควบคุมภาคทั้งหมดมีข้อมูลบางส่วนอยู่ตลอดเวลาเพียงแค่อ่านและเขียนทับข้อมูลตามที่ได้บอกไว้)
    • ในทางกลับกันคอนโทรลเลอร์ของ SSD (de) จะจัดสรรเซกเตอร์แบบไดนามิกคล้ายกับระบบไฟล์ ซึ่งทำให้งานนี้ยากขึ้นในการใช้งานที่สูงขึ้น มันยากแค่ไหนและมีผลต่อประสิทธิภาพที่สังเกตได้มากน้อยเพียงใดขึ้นอยู่กับ:
      • ประสิทธิภาพและคุณภาพของอัลกอริธึมของคอนโทรลเลอร์
      • โหลดการเขียน
      • ในระดับตัวอักษรการโหลดโดยรวม (เพื่อให้เวลาตัวควบคุมสำหรับการรวบรวมขยะ)
      • overprovision พื้นที่ (ผู้ผลิตบางรายปล่อยให้ลูกค้าเลือกสั่งล่วงหน้าหรือเปลี่ยนแปลงแบบไดนามิก)
  • ระบบไฟล์

    • ระบบไฟล์ที่แตกต่างกันได้รับการออกแบบสำหรับโหลดที่แตกต่างกันและข้อกำหนดการประมวลผลโฮสต์ สิ่งนี้สามารถปรับแต่งได้บ้างโดยการจัดรูปแบบพารามิเตอร์
    • ประสิทธิภาพการเขียน FS เป็นฟังก์ชั่นของพื้นที่ว่างและการกระจายตัวของประสิทธิภาพการอ่านเป็นหน้าที่ของการกระจายตัว มันลดระดับลงเรื่อย ๆ ตั้งแต่เริ่มต้นดังนั้นคำถามก็คือจุดที่คุณยอมรับได้
  • ประเภทโหลด

    • โหลดที่เขียนหนักจะเน้นการค้นหาและเข้าถึงบล็อกฟรีใหม่อย่างรวดเร็ว
    • โหลดที่อ่านหนักจะเน้นการรวบรวมข้อมูลที่เกี่ยวข้องเพื่อให้สามารถอ่านได้โดยมีค่าใช้จ่ายน้อยลง

3

สิ่งหนึ่งที่ต้องพิจารณาด้วยไดรฟ์เชิงกลคือปริมาณงานของขอบด้านนอกสูงกว่าภายใน นี่เป็นเพราะมีภาคต่อการปฏิวัติสำหรับรอบนอกที่ใหญ่กว่า

เมื่อไดรฟ์มีความจุพอเหมาะประสิทธิภาพจะลดลงเพราะจะมีเฉพาะส่วนภายในที่ช้ากว่าเท่านั้น

สำหรับการวิเคราะห์เชิงลึกเพิ่มเติมดูhttps://superuser.com/a/643634


5
กรณีนี้จะเกิดขึ้นต่อเมื่อไม่มีไฟล์ใดถูกลบออกจากไดรฟ์ ในชีวิตจริงตามเวลาที่คุณมีความจุถึง 90% คุณจะมีจุดฟรีมากมายกระจายอยู่ทั่วไดรฟ์
Dmitry Grigoryev

1
ฉันไม่ได้ตั้งใจจะบอกว่าตัวควบคุมฮาร์ดดิสก์จะละเว้นจากการเติมช่องว่าง แต่ในขณะที่ไดรฟ์เติมส่วนภายในมากขึ้นจะถูกนำมาใช้ ดิสก์ที่ความจุ 90% จะใช้เซกเตอร์ภายในมากกว่าดิสก์เพียง 55% เวลาที่ใช้ในการค้นหามีผลกระทบอย่างมากต่อประสิทธิภาพการทำงานดังนั้นจึงเป็นประโยชน์อย่างมากต่อไฟล์ขนาดใหญ่ที่ต่อเนื่องกัน พื้นที่ว่างที่มากขึ้นไม่ได้หมายความว่ามีโอกาสมากขึ้นในการจัดเก็บไฟล์ขนาดใหญ่อย่างต่อเนื่อง
Wes Toleman

@WesToleman ตัวควบคุมฮาร์ดดิสต์ไม่รับผิดชอบต่อการตัดสินใจว่าจะไปที่ไหน ระบบปฏิบัติการ - โดยเฉพาะอย่างยิ่งระบบไฟล์
Thorbjørn Ravn Andersen

3

มันขึ้นอยู่กับการใช้งานที่ตั้งใจของไดรฟ์ แต่โดยทั่วไปพื้นที่ว่าง 20% ถึง 15% เป็นคำตอบที่ดีสำหรับดิสก์หมุนและ 10% หรือมากกว่านั้นดีสำหรับ SSD

หากนี่เป็นไดรฟ์หลักในคอมพิวเตอร์และอาจถูกย้ายไฟล์พื้นที่ว่าง 20% ควรป้องกันการชะลอตัวลงอย่างมาก ซึ่งจะช่วยให้มีพื้นที่ว่างเพียงพอทั่วทั้งไดรฟ์เพื่อให้สามารถย้ายและคัดลอกข้อมูลได้ตามต้องการ ไดรฟ์แบบหมุนจะทำงานได้ดีที่สุดเมื่อตำแหน่งว่างใกล้กับข้อมูลต้นฉบับในขณะที่ SSD ตำแหน่งทางกายภาพจะไม่ส่งผลต่อประสิทธิภาพการทำงานรายวัน ดังนั้นไดรฟ์แบบหมุนควรมีพื้นที่ว่างมากขึ้นด้วยเหตุผลด้านประสิทธิภาพอย่างแท้จริง บน SSD พื้นที่ว่างที่ลดลงจะลดอายุการใช้งานของไดร์ฟ แต่จะไม่ลดประสิทธิภาพลง SSD พยายามจัดเก็บข้อมูลชั่วคราวและไฟล์ดาวน์โหลดแบบสุ่มในสถานที่ที่มีการใช้งานน้อยที่สุดเพื่อให้พวกเขาสามารถปรับสมดุลการใช้งานเซลล์ในไดรฟ์ทั้งหมด มิฉะนั้นส่วนหนึ่งของไดรฟ์จะอายุเร็วกว่าส่วนที่เหลือของมัน

หากนี่คือไดรฟ์สื่อบันทึกหรือไดรฟ์จัดเก็บข้อมูลระยะยาวดังนั้น 5% ถึง 10% ควรมีเพียงพอและ 10% จะดีกว่าถ้าเป็นดิสก์หมุน คุณไม่ต้องการพื้นที่ว่างมากนักเพราะไดรฟ์นี้จะไม่ต้องการข้อมูลที่จะย้ายดังนั้นประสิทธิภาพจึงไม่ได้เป็นปัจจัยที่สำคัญ พื้นที่ว่างมีประโยชน์ส่วนใหญ่ในการอนุญาตให้เซกเตอร์เสียถูกยกเลิกและแทนที่และทำให้ไฟล์มีความต่อเนื่องมากขึ้น

ฉันจะไม่ผลักดันไดรฟ์ใด ๆ ที่ผ่านความจุ 95% มานานกว่าหนึ่งวันเว้นแต่จะมีเหตุผลที่ดีมากชัดเจน

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.