Time Machine, ZFS และการขจัดข้อมูลซ้ำซ้อน


8

ฉันกำลังส่งออกพาร์ทิชัน ZFS ด้วยdedup=onการใช้และubuntu-zfs netatalkอย่างไรก็ตามไทม์แมชชีนยืนยันในการสร้าง sparsebundle ในนั้นและทำให้ฉันเริ่มสงสัยว่าสิ่งนี้จะมีผลกระทบต่อการขจัดข้อมูลซ้ำซ้อนหรือไม่เนื่องจากแนวคิดของ "ไฟล์" หายไปและอาจเป็นไปได้ว่าการจัดเรียงบล็อกจะไม่ดีเช่นกัน .. .

PS แนวคิดทั้งหมดของฉันในการใช้การลดความซ้ำซ้อนคือฉันมี macbooks สองตัวสำรองอยู่ในที่เดียวกันและไฟล์จำนวนมากมีค่าเท่ากัน


ภาคผนวก: ดูเหมือนว่าการจัดแนวระดับบล็อกล้มเหลวซ้ำซ้อน นี่คือประสบการณ์ของฉัน:

  • เครื่องทำสำเนาแมคบุ๊กสองเครื่องพร้อมข้อมูลที่ซ้ำซ้อนจำนวนมาก (รวม 200Gb)
  • CCC สอง macbooks เป็นสองภาพกระจัดกระจาย

การคัดลอกปัจจัย? 1.01 เท่า


แนวคิดใด ๆ เกี่ยวกับวิธีตั้งค่าการขจัดข้อมูลซ้ำซ้อน ZFS ให้ทำงานกับการสำรองข้อมูลตามเวลาได้อย่างถูกต้องหรือไม่ ฉันควรเริ่มมองหาทางเลือกสำรองอื่น


การบีบอัดดูเหมือนจะเป็นทางเลือกที่ดีกว่า มันสามารถเข้ารหัสได้หรือไม่? ไฟล์ที่เข้ารหัสสองไฟล์ที่มีเนื้อหาเหมือนกันสามารถ "ดู" แตกต่างจากระบบไฟล์ด้านล่างได้เป็นอย่างดีเนื่องจากวิธีการทำงานของการเข้ารหัส ฉันจะจินตนาการว่าการลดความซ้ำซ้อนทำงานได้ดีบนโวลุ่มที่ไม่ได้เข้ารหัสแม้ว่าจะเป็นไฟล์ขนาดใหญ่เพียงไฟล์เดียว แต่ไม่ใช่ชุดข้อมูลกระจัดกระจาย
Oleg Lobachev

คำตอบ:


7

การทำซ้ำใน ZFS เป็นระดับบล็อกดังนั้นจึงไม่ขึ้นอยู่กับแนวคิดของไฟล์ วิธีเดียวที่การขจัดความซ้ำซ้อนสามารถเอาชนะได้คือถ้าออฟเซตของไฟล์ภายใน sparsebundle นั้นไม่ได้เป็นแบบโมดูโลขนาดเท่ากันเสมอไป เนื่องจาก ZFS สามารถใช้ขนาดบล็อกแปรผันที่มีขนาดใหญ่กว่าขนาดบล็อกของระบบไฟล์ HFS + ภายใน sparsebundle การจัดตำแหน่งที่ถูกต้องจึงไม่รับประกัน

หากคุณกังวลเกี่ยวกับพื้นที่คุณอาจต้องการเปิดใช้งานการบีบอัดในพูล ZFS ของคุณ มันเรียกเก็บค่าใช้จ่าย CPU เพิ่มเติม แต่จริง ๆ แล้วสามารถเพิ่มปริมาณงานของดิสก์ที่มีประสิทธิภาพ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.