คำถามติดแท็ก deduplication

2
ตาราง ZFS dedupe ของฉันมีขนาดใหญ่เพียงใดในขณะนี้
ฉันได้อ่านข้อมูลจำนวนมากเกี่ยวกับการวางแผนข้อกำหนด RAM สำหรับการลดความซ้ำซ้อนของ ZFS ฉันเพิ่งอัปเกรด RAM ของเซิร์ฟเวอร์ไฟล์ของฉันเพื่อรองรับการ จำกัด การซ้ำซ้อนบางอย่างบน ZFS zvols ซึ่งฉันไม่สามารถใช้สแน็ปช็อตและการโคลนนิ่งบน ฉันต้องการตรวจสอบให้แน่ใจว่า RAM ใหม่ที่ฉันเพิ่มจะรองรับการขจัดข้อมูลซ้ำซ้อนแบบ จำกัด ที่ฉันตั้งใจจะทำ ในการวางแผนหมายเลขของฉันดูดี แต่ผมต้องการที่จะแน่ใจว่า ฉันจะบอกขนาดปัจจุบันของตาราง ZD dedupe (DDTs) บนระบบถ่ายทอดสดของฉันได้อย่างไร ฉันอ่านชุดข้อความของรายชื่อผู้รับจดหมายแต่ฉันไม่ชัดเจนว่าพวกเขาเข้าถึงหมายเลขเหล่านั้นได้อย่างไร (ฉันสามารถโพสต์ผลลัพธ์ได้zdb tankหากจำเป็น แต่ฉันกำลังมองหาคำตอบทั่วไปที่สามารถช่วยเหลือผู้อื่นได้)

4
เห็นได้ชัดว่า Robocopy ไม่เข้าใจการขจัดข้อมูลซ้ำซ้อนของ Windows Server 2016 มีวิธีทำให้ทำงานโดยไม่ทำลายปริมาณหรือไม่
สถานการณ์: ทำการโอนย้ายเซิร์ฟเวอร์จาก Server 2008 R2 เก่าไปยังเซิร์ฟเวอร์ใหม่ 2016 ทำตามคำแนะนำเซิร์ฟเวอร์ข้อผิดพลาดนี้: การโยกย้ายเซิร์ฟเวอร์ไฟล์โดยใช้ Robocopy หลังจาก Robocopy เสร็จสิ้นให้เปิดใช้งานการลดความซ้ำซ้อนบนเซิร์ฟเวอร์ 2016 สำหรับปริมาณที่คัดลอกแล้วใช้ PowerShell เพื่อเริ่มการขจัดข้อผิดพลาดด้วยตนเอง หลังจากผ่านไปหลายชั่วโมงจะเสร็จสมบูรณ์และกู้คืนได้ประมาณ 25% ของพื้นที่ดิสก์ เรียกใช้ Robocopy อีกครั้งเพื่อคัดลอกสิ่งที่อาจพลาดในการคัดลอกครั้งแรกเป็นการตรวจสอบขั้นสุดท้ายของเซิร์ฟเวอร์ใหม่ .... แต่ Robocopy (เรียกใช้จากเซิร์ฟเวอร์ 2016) ไม่เข้าใจการขจัดข้อมูลซ้ำซ้อนและดังนั้นแทนที่จะดำเนินการเพื่อลบล้าง chunkstore ซ้ำซ้อนแทน ------------------------------------------------------------------------------- ROBOCOPY :: Robust File Copy for Windows ------------------------------------------------------------------------------- Started : Sunday, July 8, 2018 12:10:02 PM Source : …

3
Windows Server 2012 R2 Deduped 356GB เป็น 1.32GB
ฉันกำลังทดลองกับการทำซ้ำในพื้นที่เก็บข้อมูล Server 2012 R2 ฉันปล่อยให้มันรันการเพิ่มประสิทธิภาพ dedupe ครั้งแรกเมื่อคืนและฉันยินดีที่ได้เห็นว่ามันอ้างว่าลดลง 340GB อย่างไรก็ตามฉันรู้ว่ามันดีเกินกว่าจะเป็นจริงได้ ในไดรฟ์นั้นการขจัดข้อมูลซ้ำซ้อน 100% มาจากการสำรองข้อมูล SQL Server: ดูเหมือนว่าไม่สมจริงโดยพิจารณาว่ามีการสำรองฐานข้อมูลที่ขนาด 20 เท่าในโฟลเดอร์ ตัวอย่างเช่น: ถือว่าเป็นไฟล์สำรองข้อมูลขนาด 13.3GB ที่มีการซ้ำซ้อนเป็น 0 ไบต์ และแน่นอนไฟล์นั้นไม่สามารถใช้งานได้จริงเมื่อฉันทำการทดสอบการกู้คืน หากต้องการเพิ่มการดูถูกการบาดเจ็บมีโฟลเดอร์อื่นในไดรฟ์นั้นที่มีข้อมูลเกือบ TB ในนั้นควรซ้ำซ้อนมาก แต่ยังไม่ได้ การขจัดข้อมูลซ้ำซ้อนของเซิร์ฟเวอร์ 2012 R2 ทำงานได้หรือไม่

1
รายละเอียดทางเทคนิคสำหรับคุณสมบัติการทำซ้ำเซิร์ฟเวอร์ 2012
ตอนนี้ Windows Server 2012 มาพร้อมกับคุณสมบัติการทำซ้ำสำหรับวอลุ่ม NTFSฉันมีเวลายากในการหารายละเอียดทางเทคนิคเกี่ยวกับเรื่องนี้ ฉันสามารถอนุมานได้จากเอกสารของ TechNet ว่าการยกเลิกการทำซ้ำตัวเองเป็นกระบวนการแบบอะซิงโครนัส - ไม่เหมือนกับวิธีSIS Groveler ที่ใช้ในการทำงาน - แต่ไม่มีรายละเอียดเกี่ยวกับการใช้งานจริง ๆ สิ่งที่ควรพิจารณาคือคำแนะนำสไตล์กฎกติกา) ข้อมูลเชิงลึกและพอยน์เตอร์ได้รับการชื่นชมอย่างมากการเปรียบเทียบประสิทธิภาพการทำสำเนา ZFS ของ Solaris สำหรับชุดสถานการณ์จะยอดเยี่ยม

2
ZFS - ทำลาย zvol ที่ซ้ำซ้อนหรือชุดข้อมูลจะถ่วงเซิร์ฟเวอร์ วิธีการกู้คืน
ฉันใช้ Nexentastor บนเซิร์ฟเวอร์จัดเก็บข้อมูลสำรองที่ทำงานบน HP ProLiant DL180 G6 พร้อม 12 ไดรฟ์ Midline (7200 RPM) SAS ระบบมี CPU E5620 และ RAM 8GB ไม่มีอุปกรณ์ ZIL หรือ L2ARC เมื่อสัปดาห์ที่แล้วฉันสร้าง zvol กระจัดกระจาย 750GB โดยมีการหักและการบีบอัดเปิดใช้งานเพื่อแบ่งปันผ่าน iSCSI ไปยังโฮสต์ VMWare ESX ฉันสร้างอิมเมจเซิร์ฟเวอร์ไฟล์ Windows 2008 และคัดลอกข้อมูลผู้ใช้ ~ 300GB ไปยัง VM เมื่อมีความสุขกับระบบฉันย้ายเครื่องเสมือนไปยังที่จัดเก็บ NFS ในกลุ่มเดียวกัน ครั้งหนึ่งและทำงานกับ VMs ของฉันในที่เก็บข้อมูล NFS ฉันตัดสินใจที่จะลบ 750GB …

10
การขจัดข้อมูลซ้ำซ้อนระดับบล็อกบน Linux
NetApp ให้การป้องกันการซ้ำซ้อนของบล็อกระดับ (ASIS) คุณรู้ระบบไฟล์ใด ๆ (แม้จะเป็นแบบ FUSE) บน Linux (หรือ OpenSolaris, * BSD) ที่มีฟังก์ชั่นการใช้งานเหมือนกันหรือไม่? (ฉันไม่ได้สนใจในการคัดลอกข้อมูลที่ผิดพลาดเหมือนฮาร์ดลิงก์)

3
เซิร์ฟเวอร์จัดเก็บข้อมูลสำรองด้วย ZFS
ฉันเป็นคนทุกอย่างที่ บริษัท ขนาดเล็ก ฉันต้องการออกแบบโครงสร้างพื้นฐานใหม่รวมถึงเซิร์ฟเวอร์ใหม่และเซิร์ฟเวอร์สำรองแยกต่างหากที่มีนโยบายการสำรองข้อมูลแบบกว้างของ บริษัท สิ่งที่สำคัญที่สุดใน บริษัท คือ SQL Server และฐานข้อมูล มีฐานข้อมูล 10 แห่ง แต่มีเพียง 2 แห่งเท่านั้นที่มีความสำคัญจริงๆ 8GB ตัวแรกซึ่งส่วนใหญ่เป็นข้อมูลตัวอักษรและตัวเลข คนที่สองประมาณ 300GB พร้อม 16GB / เดือนเติบโตที่มี PDF และ GIF หากต้องการบันทึกนโยบายการสำรองข้อมูลปัจจุบันของหน่วยเก็บประกอบด้วยการสำรองข้อมูลเต็มรูปแบบหนึ่งรายการต่อสัปดาห์และส่วนต่าง 6 รายการ ฉันคิดว่ามันประมาณ 350GB ต่อสัปดาห์ 1.4TB ต่อเดือน หลังจากอ่านบทความเกี่ยวกับความเสียหายของข้อมูลแบบเงียบฉันตัดสินใจลองใช้ ZFS ด้วย Nexenta Community edition คำถามของฉัน: ZFS มีการขจัดข้อมูลซ้ำซ้อนที่ดีสำหรับการจัดเก็บไฟล์สำรองในแง่ของความน่าเชื่อถือหรือฉันควรคิดถึงการสำรองข้อมูลเทปบางอย่างหรืออย่างอื่น? แก้ไข: ฉันรู้ว่าตอนนี้เราไม่สามารถคาดการณ์ประสิทธิภาพอัตราส่วนการขจัดความซ้ำซ้อน ฯลฯ แต่ฉันต้องการทราบว่าเป็นความคิดที่ดีหรือไม่
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.