คำถามติดแท็ก zfs

ZFS เป็นระบบไฟล์และตัวจัดการโวลุ่มที่ทันสมัยซึ่งพัฒนาโดย Sun Microsystems และได้รับอนุญาตภายใต้ CDDL เป็นระบบไฟล์ copy-on-write ที่รองรับอาร์เรย์หน่วยเก็บข้อมูลขนาดใหญ่การป้องกันความเสียหายสแน็ปช็อตโคลนการบีบอัดการขจัดข้อมูลซ้ำซ้อนและ NFSv4 ACLs ทางแยกโอเพ่นซอร์สของ ZFS สามารถพบได้ที่ http://open-zfs.org/ ซึ่งได้รับการสนับสนุนโดย ZFSonlinux.org, illumos.org และนักพัฒนา ZFS ในชุมชน FreeBSD และ Mac OS X

1
จะเกิดอะไรขึ้นถ้าฉันบังคับให้ ZFS ปลด hot spare ที่ไม่มีเรพลิกาที่ถูกต้อง
ฉันมีพูล ZFS ที่ทำจาก 6 RAIDZ หนึ่งใน RAIDZ ถูกลดระดับเนื่องจากการสูญเสียดิสก์สองตัวใน RAIDZ เดียวใกล้กันพอที่ ZFS ไม่สามารถกู้คืนจากความล้มเหลวครั้งแรกก่อนที่ดิสก์ที่สองจะล้มเหลว นี่คือผลลัพธ์จาก "สถานะ zpool" ไม่นานหลังจากรีบูต: pool: pod2 state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool …
9 linux  zfs  zfs-fuse 

1
ใช้ ZFS head node เป็นเซิร์ฟเวอร์ฐานข้อมูลหรือไม่
ฉันกำลังใช้ NAS แบบสองหัวที่ได้รับการสนับสนุนจาก ZFS สำหรับที่เก็บข้อมูลของคลัสเตอร์ที่มีความพร้อมใช้งานสูงโดยยึดตามสถาปัตยกรรมที่แนะนำของ Nexenta ดังที่เห็นที่นี่: ดิสก์ใน 1 JBOD จะเก็บไฟล์ฐานข้อมูลสำหรับฐานข้อมูล Postgres 4 TB เดียวและดิสก์ใน JBOD อื่นจะจัดเก็บไฟล์ไบนารีแฟล็กขนาดใหญ่ดิบขนาด 20 TB (ผลลัพธ์คลัสเตอร์สำหรับการจำลองการชนกันของวัตถุตัวเอกขนาดใหญ่) กล่าวอีกนัยหนึ่ง JBOD ที่สนับสนุนไฟล์ Postgres จะจัดการปริมาณงานแบบสุ่มส่วนใหญ่ในขณะที่ JBOD ที่สำรองข้อมูลผลลัพธ์การจำลองจะจัดการภาระงานแบบอนุกรมเป็นหลัก โหนดหัวทั้งสองมีหน่วยความจำ 256 GB และ 16 คอร์ คลัสเตอร์มีประมาณ 200 แกนแต่ละรักษาเซสชัน Postgres ดังนั้นฉันคาดว่าประมาณ 200 พร้อมกัน ฉันสงสัยว่ามันฉลาดในการตั้งค่าของฉันเพื่อให้โหนดหัว ZFS ทำงานพร้อมกันในฐานะเซิร์ฟเวอร์ฐานข้อมูล Postgres ที่ทำมิเรอร์สำหรับคลัสเตอร์ของฉันหรือไม่ ข้อเสียเปรียบเดียวที่ฉันเห็นคือ: ความยืดหยุ่นน้อยลงสำหรับการปรับขนาดโครงสร้างพื้นฐานของฉัน ระดับความซ้ำซ้อนลดลงเล็กน้อย ทรัพยากรหน่วยความจำและ CPU …

3
zfs เปลี่ยนชื่อ / ย้ายระบบไฟล์รูทไปเป็น child
มีคำถามที่คล้ายกันอยู่แต่การแก้ปัญหา (โดยใช้mv) นั้นแย่มากเพราะในกรณีนี้มันทำงานเป็น "คัดลอกแล้วลบ" แทนที่จะย้าย "บริสุทธิ์" ดังนั้นฉันสร้างสระว่ายน้ำ: zpool create tank /dev/loop0 และ rsynced /tankข้อมูลของฉันจากการจัดเก็บอีกในนั้นโดยตรงเพื่อให้ข้อมูลของฉันในตอนนี้คือ zfs list NAME USED AVAIL REFER MOUNTPOINT tank 591G 2.10T 591G /tank ตอนนี้ฉันรู้แล้วว่าฉันต้องการให้ข้อมูลของฉันอยู่ในระบบไฟล์ลูกไม่ใช่ใน/tankระบบไฟล์โดยตรง ดังนั้นฉันจะย้ายหรือเปลี่ยนชื่อระบบไฟล์รูทที่มีอยู่เพื่อให้กลายเป็นลูกในกลุ่มได้อย่างไร การเปลี่ยนชื่อแบบง่ายจะไม่ทำงาน: zfs rename tank tank/mydata cannot rename to 'tank/mydata': datasets must be within same pool (Btw ทำไมมันถึงบ่นว่าชุดข้อมูลไม่ได้อยู่ในกลุ่มเดียวกันเมื่อข้อเท็จจริงที่ว่าฉันมีเพียงหนึ่งกลุ่มเท่านั้น) ฉันรู้ว่ามีวิธีแก้ปัญหาที่เกี่ยวข้องกับการคัดลอกข้อมูลทั้งหมด ( mvหรือส่งชุดข้อมูลทั้งหมดไปยังอุปกรณ์อื่นและย้อนกลับ) แต่ไม่ควรมีวิธีที่เรียบง่ายสง่างาม? เพิ่งสังเกตว่าฉันไม่สนใจสแนปชอตในขั้นตอนนี้ …

3
เซิร์ฟเวอร์จัดเก็บข้อมูลสำรองด้วย ZFS
ฉันเป็นคนทุกอย่างที่ บริษัท ขนาดเล็ก ฉันต้องการออกแบบโครงสร้างพื้นฐานใหม่รวมถึงเซิร์ฟเวอร์ใหม่และเซิร์ฟเวอร์สำรองแยกต่างหากที่มีนโยบายการสำรองข้อมูลแบบกว้างของ บริษัท สิ่งที่สำคัญที่สุดใน บริษัท คือ SQL Server และฐานข้อมูล มีฐานข้อมูล 10 แห่ง แต่มีเพียง 2 แห่งเท่านั้นที่มีความสำคัญจริงๆ 8GB ตัวแรกซึ่งส่วนใหญ่เป็นข้อมูลตัวอักษรและตัวเลข คนที่สองประมาณ 300GB พร้อม 16GB / เดือนเติบโตที่มี PDF และ GIF หากต้องการบันทึกนโยบายการสำรองข้อมูลปัจจุบันของหน่วยเก็บประกอบด้วยการสำรองข้อมูลเต็มรูปแบบหนึ่งรายการต่อสัปดาห์และส่วนต่าง 6 รายการ ฉันคิดว่ามันประมาณ 350GB ต่อสัปดาห์ 1.4TB ต่อเดือน หลังจากอ่านบทความเกี่ยวกับความเสียหายของข้อมูลแบบเงียบฉันตัดสินใจลองใช้ ZFS ด้วย Nexenta Community edition คำถามของฉัน: ZFS มีการขจัดข้อมูลซ้ำซ้อนที่ดีสำหรับการจัดเก็บไฟล์สำรองในแง่ของความน่าเชื่อถือหรือฉันควรคิดถึงการสำรองข้อมูลเทปบางอย่างหรืออย่างอื่น? แก้ไข: ฉันรู้ว่าตอนนี้เราไม่สามารถคาดการณ์ประสิทธิภาพอัตราส่วนการขจัดความซ้ำซ้อน ฯลฯ แต่ฉันต้องการทราบว่าเป็นความคิดที่ดีหรือไม่

2
ตั้งแต่อัพเกรดเป็น Solaris 11 ขนาด ARC ของฉันมีการกำหนดเป้าหมายอย่างต่อเนื่อง 119MB แม้ว่าจะมี RAM 30GB อะไร? ทำไม?
ฉันใช้กล่อง NAS / SAN บน Solaris 11 Express ก่อนที่ Solaris 11 จะวางจำหน่าย กล่องนั้นเป็น HP X1600 ที่มี D2700 ติดอยู่ โดยรวมดิสก์ SATA 12 x 1TB 7200, 12x 300GB 10k SAS ดิสก์ใน zpools แยกกัน RAM ทั้งหมดคือ 30GB บริการที่จัดเตรียมคือ CIFS, NFS และ iSCSI ทั้งหมดเป็นไปด้วยดีและฉันมีกราฟการใช้หน่วยความจำ ZFS ที่มีลักษณะเช่นนี้: ขนาดอาร์คที่ค่อนข้างแข็งแรงประมาณ 23GB ใช้ประโยชน์จากหน่วยความจำที่มีอยู่สำหรับแคช อย่างไรก็ตามฉันอัพเกรดเป็น Solaris 11 เมื่อมันออกมา ตอนนี้กราฟของฉันมีลักษณะดังนี้: …
9 zfs  solaris-11 

3
พูล ZFS ที่มีขนาดไดร์ฟต่างกัน
ฉันกำลังวางแผนในการตั้งค่าพูล FreeNAS ZFS โดยใช้ไดรฟ์ 2 tb สองตัวและไดรฟ์ 1tb สองตัว ฉันต้องการให้มีข้อมูลซ้ำซ้อน ฉันอ่านโพสต์นี้ซึ่งดูเหมือนว่าจะแนะนำสองตัวเลือกของฉันคือการสูญเสีย 1tb ต่อไดรฟ์ 2tb โดยใช้ RAIDZ หรือใช้คำสั่งนี้ (ซึ่งเพิ่มพื้นที่เป็นสองเท่าสำหรับการสำรองข้อมูล): zfs set copies=2 poolname มีวิธีที่ดีกว่าในการจัดการกับสิ่งนี้และทำสิ่งใดได้มากขึ้นเช่น Drobo's Beyond RAID หรือ XRAID ของ Netgear หรือไม่? อีกวิธีหนึ่งฉันสามารถแบ่งพาร์ติชัน 2tb แต่ละไดรฟ์ลงในพาร์ติชัน 1 tb และใส่พาร์ติชันทั้งสองในพูล
9 zfs  freenas 

6
ขนาดไฟล์ที่มีการบีบอัด zfs
ฉันมักจะประมาณขนาดของทรีไดเรกทอรีทั้งหมดที่ใช้du -ks $DIRECTOY_TREE_ROOTแต่วิธีนี้ไม่สามารถใช้ได้เมื่อมีการเปิดใช้การบีบอัด zfs totalแสดงโดยls -lเป็น ok สำหรับไดเรกทอรีเดียว แต่ซึ่งเป็นวิธีที่ง่ายที่สุดที่จะได้รับผลเช่นเดียวกันสำหรับต้นไม้ไดเรกทอรีหรือไม่? แก้ไข: ระบบปฏิบัติการคือ Solaris 10 ฉันกำลังมองหาขนาดไฟล์จริงไม่ใช่พื้นที่ที่ใช้บนดิสก์

2
อุปกรณ์ ZFS และแคช
ฉันจะเพิ่มไดรฟ์ SSD ในที่เก็บ ZFS ของฉันเป็นแคช ใครมีประสบการณ์เกี่ยวกับเรื่องนี้บ้าง? จะเกิดอะไรขึ้นถ้าอุปกรณ์แคชตายข้อมูลใด ๆ จะได้รับผลกระทบหรือไม่
9 cache  ssd  zfs 

7
ใครมีประสบการณ์ในการใช้ Nexenta บ้าง? [ปิด]
ตามที่เป็นอยู่ในปัจจุบันคำถามนี้ไม่เหมาะสำหรับรูปแบบคำถาม & คำตอบของเรา เราคาดหวังคำตอบที่จะได้รับการสนับสนุนจากข้อเท็จจริงการอ้างอิงหรือความเชี่ยวชาญ แต่คำถามนี้มีแนวโน้มที่จะเรียกร้องการอภิปรายการโต้แย้งการหยั่งเสียงหรือการอภิปรายเพิ่มเติม หากคุณรู้สึกว่าคำถามนี้สามารถปรับปรุงและเปิดใหม่ได้โปรดไปที่ศูนย์ช่วยเหลือเพื่อขอคำแนะนำ ปิดให้บริการใน7 ปีที่ผ่านมา ฉันประเมินแพลตฟอร์ม Nexenta หวังว่าสักวันหนึ่งจะแทนที่เซิร์ฟเวอร์ไฟล์เดิมของเรา ฉันจะใช้มันเป็นเซิร์ฟเวอร์ CIFS เป็นหลักในสภาพแวดล้อมของ Active Directory ใครบ้างที่มีประสบการณ์ใช้มัน? ดี? ไม่ดี? คุณไปกับผู้จำหน่ายฮาร์ดแวร์รายใด ทำไม? คุณสร้างของคุณเอง (ซูเปอร์ไมโคร) หรือสร้างไว้ล่วงหน้าหรือไม่?
9 zfs  nexenta 

7
มีกรณีกับ ZFS หรือไม่?
ยังคงมีกรณีการใช้ ZFS ในการผลิตหรือไม่? ฉันใช้เซิร์ฟเวอร์ Solaris และฉันวางแผนที่จะอัพเกรดเป็น Solaris 10 10/09 จากรุ่นก่อนหน้า ขณะนี้เราใช้ SVM สำหรับดิสก์ในพื้นที่และเทคโนโลยีของผู้ขายของเราสำหรับการจัดการปริมาณ SAN เรากำลังพิจารณาที่จะย้ายที่เก็บข้อมูลส่วนใหญ่ (ถ้าไม่ใช่ทั้งหมด) ไปยัง ZFS เราต้องการที่จะสามารถใช้ LiveUpgrade บนสแน็ปช็อตการจัดการพื้นที่เก็บข้อมูลง่าย ๆ (โดยเฉพาะการเติบโตของ LUN) การกู้คืนอย่างรวดเร็ว ฯลฯ มี "gotchas" ที่เราควรระวังหรือไม่? เรามีฐานข้อมูล Oracle จำนวนมาก นั่นเป็นปัญหาหรือไม่? มีใครบ้างที่มีประสบการณ์ด้านลบที่ทำในสิ่งที่เรากำลังคิดอยู่
9 solaris  zfs 

6
คำแนะนำเกี่ยวกับ ZFS บน FreeBSD เป็นกล่อง NAS หรือไม่
ล็อคแล้ว คำถามและคำตอบของคำถามนี้ถูกล็อคเนื่องจากคำถามอยู่นอกหัวข้อ แต่มีความสำคัญทางประวัติศาสตร์ ขณะนี้ไม่ยอมรับคำตอบหรือการโต้ตอบใหม่ โปรดทราบว่าคำตอบในหน้านี้มาจากปี 2009 และไม่ควรเชื่อถือในฐานะพระกิตติคุณ หากคุณมีคำถามเฉพาะเกี่ยวกับzfsโปรดคลิกปุ่มถามคำถามและถามคำถามเฉพาะ ฉันคิดถึงการสร้างระบบสำรองข้อมูลภายในบ้านโดยใช้ FreeBSD 7.2 และระบบไฟล์ ZFS มีใครเคยมีประสบการณ์กับระบบไฟล์นั้นบ้าง? โดยเฉพาะ: เป็นไปได้ไหมที่จะทำการบูทจาก ZFS? (ฉันต้องการหรือไม่) การเพิ่มไดรฟ์ทำได้ง่ายเพียงใด? มันจัดการกับไดรฟ์ที่มีขนาดต่างกันได้ดีแค่ไหน? คุณสามารถเพิ่มไดรฟ์ใหม่ได้ทันที (หรืออย่างน้อยก็เพียงรีบูต) ฉันจะได้รับการบริการที่ดีขึ้นจากชั้นวางหรือไม่ ยินดีต้อนรับความคิดและคำแนะนำอื่น ๆ แก้ไข: เพียงเพื่อจะชัดเจนฉันได้อ่านหน้า FreeBSD บน ZFS ฉันกำลังมองหาคำแนะนำจากผู้ที่มีประสบการณ์จริงพร้อมการตั้งค่าที่คล้ายกับสิ่งที่ฉันต้องการ

6
ความเร็ว“ ดี” สำหรับ iSCSI และ NFS บนอีเธอร์เน็ต 1GB เป็นเท่าไร
ล็อคแล้ว คำถามและคำตอบของคำถามนี้ถูกล็อคเนื่องจากคำถามอยู่นอกหัวข้อ แต่มีความสำคัญทางประวัติศาสตร์ ขณะนี้ไม่ยอมรับคำตอบหรือการโต้ตอบใหม่ ฉันมีกล่อง OpenSolaris ที่แชร์ระบบไฟล์ ZFS สองระบบ หนึ่งคือการเชื่อมต่อ NFS ไปยังกล่อง CentOS ที่รันเซิร์ฟเวอร์ VMware (อิมเมจของดิสก์ถูกเก็บใน ZFS) อีกอันคือการเชื่อมต่อ iSCSI กับเซิร์ฟเวอร์ Windows 2008 ที่มีการจัดรูปแบบ NTFS ที่ด้านบนของ ZFS การเชื่อมต่อทั้งสองโดยตรงผ่าน gig-E (ไม่มีสวิตช์) ฉันใช้มินนินเพื่อตรวจสอบกล่อง แต่ฉันไม่แน่ใจว่าฉันควรคาดหวังว่าจะเป็นตัวเลขประเภทใด ใครช่วยให้ฉันได้ตัวเลขพื้นฐานเพื่อเปรียบเทียบกับหรือให้คำแนะนำใด ๆ ในการเริ่มจูน? นี่คือสถิติ NFS ที่ฉันเห็นฉันจะโพสต์ iSCSI เมื่อฉันแก้ไข munin ในกล่อง solaris: P

2
ไม่สามารถเพิ่มอุปกรณ์แคชไปยัง zpool อีกครั้ง
ฉันมีอุปกรณ์แคชที่หล่นจากอาร์เรย์ zfs เนื่องจากข้อผิดพลาด ฉันค่อนข้างแน่ใจว่ามันเป็นสิ่งที่ฉันทำ - ยุ่งกับการเดินสายหรืออะไรบางอย่าง ตรวจสอบได้ดีรวมถึงอุปกรณ์แคช เมื่อฉันพยายามอ่านมันมันล้มเหลวด้วยข้อผิดพลาดต่อไปนี้: # zpool add array cache /dev/sdj2 cannot add to 'array': one or more vdevs refer to the same device มีวิธีลบการอ้างอิงจากอาร์เรย์ zpool หรือไม่เพื่อให้ฉันสามารถอ่านได้ ive ลองลบ: # zpool remove array /dev/sdj2 cannot remove /dev/sdj2: no such device in pool
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.