คำถามติดแท็ก zfs

ZFS เป็นระบบไฟล์และตัวจัดการโวลุ่มที่ทันสมัยซึ่งพัฒนาโดย Sun Microsystems และได้รับอนุญาตภายใต้ CDDL เป็นระบบไฟล์ copy-on-write ที่รองรับอาร์เรย์หน่วยเก็บข้อมูลขนาดใหญ่การป้องกันความเสียหายสแน็ปช็อตโคลนการบีบอัดการขจัดข้อมูลซ้ำซ้อนและ NFSv4 ACLs ทางแยกโอเพ่นซอร์สของ ZFS สามารถพบได้ที่ http://open-zfs.org/ ซึ่งได้รับการสนับสนุนโดย ZFSonlinux.org, illumos.org และนักพัฒนา ZFS ในชุมชน FreeBSD และ Mac OS X

4
เป็นไปได้ไหมที่จะถอดและใส่ดิสก์ ZFS ซ้ำโดยไม่จำเป็นต้องใช้ resilver แบบเต็ม?
ฉันมีมิร์เรอร์พูล ZFS พร้อมไดรฟ์ทั้งหมดสี่ตัว ไดรฟ์สองตัวนั้นมีวัตถุประสงค์เพื่อใช้สำหรับการสำรองข้อมูลภายนอก ความคาดหวังของฉันคือหลังจากที่เริ่มการ resilvering ครั้งแรกฉันสามารถทำได้detachและหลังจากนั้นattachดิสก์และให้มันมีเพียง resilver ที่เพิ่มขึ้นเท่านั้น เนื้อหา จะใช้วิธีการoffline/ onlineให้ฉันผลลัพธ์ที่ต้องการของการปรับปรุงดิสก์ - แทนที่จะสร้างมันใหม่อย่างเต็มที่? หรือเพื่อให้งานนี้เป็นไปตามที่คาดหวังฉันจะต้องทำบางสิ่งที่แตกต่างอย่างสิ้นเชิง - เช่นการใช้ดิสก์สำรองข้อมูลแต่ละตัวเป็นดิสก์พูล 1 ดิสก์และสsendแน็ปช็อตใหม่ล่าสุดทุกครั้งที่จำเป็นต้องปรับปรุง
10 zfs  zpool  backup 

3
คุณจะค้นหาภาพรวมหลักของ zfs clone ได้อย่างไร?
ฉันสร้างโคลนของระบบไฟล์ zfs ที่มีสแน็ปช็อตจำนวนมาก ฉันยังมีสำเนาของระบบไฟล์หลายสำเนา ฉันจะค้นหาระบบไฟล์ / สแน็ปช็อตที่แนบกับโคลนได้อย่างไร (ดูเหมือนว่ามีบางอย่างที่ควรอยู่ในเอกสาร / googlable แต่ฉันไม่พบอะไรเลย)
10 filesystems  zfs 

1
การระบุจำนวนไบต์ที่เปลี่ยนแปลงระหว่างสองสแนปชอตของ ZFS ของไฟล์เดียวกัน
สมมติว่าฉันมีระบบไฟล์ ZFS ที่มีอิมเมจดิสก์เครื่องเสมือนเช่น /tank/examplevm/examplevm-flat.vmdk สมมติว่าฉันใช้สแน็ปช็อตรายวันของระบบไฟล์ ZFS เช่น $ zfs snapshot tank@20120716 $ zfs snapshot tank@20120717 เห็นได้ชัดว่าในช่วงเวลาระหว่างภาพรวมทุกวันการเปลี่ยนแปลงเกิดขึ้นกับ examplevm-flat.vmdk ของฉัน (ในกรณีส่วนใหญ่ขนาดของภาพยังคงที่ แต่บล็อกในดิสก์เสมือนได้รับการแก้ไข) ดังนั้นคำสั่ง ZFS diff จะรายงานไฟล์ที่แก้ไขระหว่างสแน็ปช็อตสองรายการ: $ zfs diff tank/@20120716 tank@20120717 M /tank/examplevm/examplevm-flat.vmdk ในขณะที่เป็นการดีที่จะรู้ว่าไฟล์นั้นได้รับการแก้ไขฉันจะสนใจจำนวนไบต์ / บล็อกที่ถูกแก้ไขใน vmdk ดังนั้นฉันจะสนใจคำแนะนำใด ๆ ของคำถามต่อไปนี้: ZFS มีคุณสมบัติใด ๆ ในการรายงานจำนวนบล็อกที่มีการเปลี่ยนแปลงในไฟล์เฉพาะระหว่างสองสแนปชอตหรือไม่? มีเครื่องมืออื่นใดที่จะทำให้ระบบไฟล์แบบไบนารีแตกต่างกันสองอิมเมจและรายงานจำนวนบล็อกหรือไบต์ที่ถูกเปลี่ยน? ฉันรู้ว่าcmp –l file1 file2 | wc –lทำอย่างนั้น …
10 zfs  diff 

4
ZFS: การลบไฟล์ออกจากสแน็ปช็อตหรือไม่
ว่าฉันมีชุดข้อมูลที่มี 100 snapshots และต้องการrm -rfทุกโฟลเดอร์ชื่อ "แคช" ในทุก snapshots ฉันต้องการเพิ่มพื้นที่ว่างจริง ๆ ไม่เพียง แต่ซ่อนมันไว้ในเลเยอร์ของสแนปชอตดังนั้นจึงทำการโคลนและลบออกจากนั้นจากนั้นการสแน็ปช็อตใหม่ดูเหมือนจะไม่ทำสิ่งที่ฉันต้องการ มีวิธีการแบบกึ่งอัตโนมัติใด ๆ ที่ทำเช่นนั้น? มีบางรายการที่ล้อมรอบรายการ zfs -t snapshot, zfs โคลน, ส่งเสริม zfs, จัดทำ snapshot zfs หรือไม่ (การโพสต์ข้ามจาก/superuser/313197เนื่องจากฉันเห็นว่ามีสิ่ง ZFS มากกว่า)
10 zfs 

3
ZFS - ผลกระทบของความล้มเหลวของอุปกรณ์แคช L2ARC (Nexenta)
ฉันมีเซิร์ฟเวอร์ HP ProLiant G7 รุ่น DL380 ทำงานเป็นหน่วยจัดเก็บ เซิร์ฟเวอร์มี RAM 36GB, ตัวควบคุม LSI 9211-8i 2 ตัว (ไม่มีตัวขยาย SAS), ไดรฟ์ระบบ SAS 2 ตัว, ไดรฟ์ข้อมูล SAS 12 ตัว, ดิสก์ hot-spare, แคช Intel X25-M L2ARC และตัวเร่งความเร็ว DDRdrive PCI ZIL ระบบนี้ทำหน้าที่ NFS ไปยังหลายโฮสต์ VMWare ฉันยังมีข้อมูลซ้ำซ้อนประมาณ 90-100GB ในอาเรย์ ฉันมีเหตุการณ์สองเหตุการณ์ที่ประสิทธิภาพการทำงานของแท็งก์โดยกระทันหันทำให้แขก VM และ Nexenta SSH / เว็บคอนโซลไม่สามารถเข้าถึงได้และต้องการการรีบูตอาร์เรย์ทั้งหมดเพื่อคืนค่าฟังก์ชันการทำงาน ในทั้งสองกรณีเป็น …
10 zfs  ssd  nexenta  zfs-l2arc 

5
ZFS Sync ผ่าน WAN ที่ไม่น่าเชื่อถือและช้า การจำลองแบบ ZFS หรือ rsync?
ฉันได้รับมอบหมายให้ทำการสำรองข้อมูลนอกสถานที่บน WAN กล่องเก็บข้อมูลทั้งสองนั้นเป็นกล่อง NAS แบบ FreeBSD ที่ใช้ ZFS หนึ่งหรือสองครั้งต่อสัปดาห์ข้อมูลการถ่ายภาพ 15-60 gigs จะถูกนำไปทิ้งไว้ที่สำนักงาน NAS งานของฉันคือหาวิธีที่จะทำให้ข้อมูลนี้นอกไซต์น่าเชื่อถือมากที่สุดโดยใช้การเชื่อมต่อ VERY SLOW DSL (อัปโหลดที่ ~ 700Kb / s) กล่องรับสัญญาณอยู่ในสภาพดีขึ้นมากที่ 30Mb / s ลง 5Mb / s ขึ้น ฉันรู้ว่าการพกพาฮาร์ดไดรฟ์นอกสถานที่จะย้ายข้อมูลเร็วกว่ามาก แต่นี่ไม่ใช่ตัวเลือกในกรณีนี้ ตัวเลือกของฉันดูเหมือนจะเป็นอย่างใดอย่างหนึ่ง: ZFS ส่งแบบเพิ่มหน่วย rsync rsync เป็นโซลูชั่นที่ได้รับเกียรติในเวลาและมีความสามารถที่สำคัญทั้งหมดในการดำเนินการส่งต่อหากมีบางสิ่งถูกขัดจังหวะ มันมีข้อเสียของการวนซ้ำไฟล์หลาย ๆ ไฟล์และไม่ทราบเกี่ยวกับการซ้ำซ้อน การส่งสแน็ปช็อต ZFS อาจถ่ายโอนข้อมูลน้อยลงเล็กน้อย (รู้มากเกี่ยวกับระบบไฟล์สามารถทำซ้ำได้สามารถจัดแพคเกจการเปลี่ยนแปลงข้อมูลเมตาได้อย่างมีประสิทธิภาพมากกว่า rsync) และมีข้อได้เปรียบของการทำซ้ำสถานะระบบแฟ้ม ไฟล์แยกต่างหาก (ซึ่งเพิ่มความจุดิสก์) …

7
การปรับแต่ง NFS ไคลเอ็นต์ / เซิร์ฟเวอร์สแต็ก
ฉันมีเซิร์ฟเวอร์ CentOS 5 VMWare ที่เชื่อมต่อกับเครื่อง OpenSolaris 2009.06 ผ่าน NFS ที่เก็บอิมเมจของดิสก์ เครื่องเสมือนของฉันดูเหมือนจะถูกผูกมัดโดย IO ช้าดังนั้นฉันต้องการทำทุกอย่างที่ทำได้เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ฉันไม่แน่ใจว่าวิธีที่ดีที่สุดในการวัดทรูพุตบนระบบการผลิต แต่การทดสอบที่ไม่มีหลักวิทยาศาสตร์บางอย่างโดยใช้การdd bs=1024k count=400แสดง show local (OpenSolaris) เขียนของ ~ 1.6GB / s และ remote (CentOS) เขียน ~ 50MB / s ฉันคิดว่าสิ่งเหล่านี้ต่ำกว่าที่ฉันได้รับจริงเนื่องจากมี 7 VMs กำลังทำงานผ่านการเชื่อมต่อ ปัจจุบันเครื่อง 2 เครื่องนั้นเชื่อมต่อโดยตรงกับ gigE พร้อมจัมโบ้เฟรมที่เปิดใช้งานบน NIC ทั้งสอง (MTU = 9000) นอกเหนือจากนั้นยังไม่มีการเพิ่มประสิทธิภาพ NFS mount …
10 centos  nfs  tcpip  opensolaris  zfs 

2
ZFS pool อ่านต่อเนื่องช้า
ฉันมีคำถามที่เกี่ยวข้องกับปัญหานี้ แต่มันซับซ้อนเกินไปและใหญ่เกินไปดังนั้นฉันตัดสินใจว่าฉันควรแยกปัญหาออกเป็น NFS และปัญหาในท้องถิ่น ฉันได้ลองถามเกี่ยวกับเรื่องนี้ในรายชื่อผู้รับจดหมาย zfs-discuss ไม่สำเร็จมาก การคัดลอกช้าระหว่างไดเร็กทอรี NFS / CIFS บนเซิร์ฟเวอร์เดียวกัน โครงร่าง: ฉันติดตั้งอย่างไรและสิ่งที่ฉันคาดหวัง ฉันมีพูล ZFS พร้อมดิสก์ 4 ตัว 2TB RED กำหนดค่าเป็น 2 มิเรอร์ที่มีลาย (RAID 10) บน Linux, zfsonlinux ไม่มีแคชหรืออุปกรณ์บันทึก ข้อมูลมีความสมดุลระหว่างกระจก (สำคัญสำหรับ ZFS) แต่ละดิสก์สามารถอ่าน (raw w / dd) ที่ 147MB / วินาทีในแบบคู่ขนานให้ปริมาณงานรวม 588MB / วินาที ฉันคาดหวังว่าจะมีการเขียน 115MB / วินาที, อ่านได้ …
10 linux  raid  performance  zfs  zpool 

2
ทำไมพูล ZFS ของฉันจึงไม่ขยายโดยใช้ ZFS บน Linux
ฉันมี ZFS zpool บน linux ภายใต้เคอร์เนล 2.6.32-431.11.2.el6.x86_64 ซึ่งมี vdev เดียว vdev เป็นอุปกรณ์ SAN ฉันขยายขนาดของ SAN และแม้ว่า zpool จะautoexpandตั้งค่าไว้onแม้หลังจากรีบูตเครื่องส่งออก / นำเข้าพูลและการใช้zpool online -eงานฉันก็ไม่สามารถทำให้พูลขยายได้ ฉันแน่ใจว่า vdev นั้นใหญ่กว่าเพราะfdiskมันเพิ่มขึ้นจาก 215GiB เป็น 250 GiB นี่คือตัวอย่างของสิ่งที่ฉันทำ: [root@timestandstill ~]# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT dfbackup 214G 207G 7.49G 96% 1.00x ONLINE - …
10 linux  zfs  zfsonlinux 

1
ความเร็วต่อเนื่องช้าลงในไดร์ฟ 9x7-Raidz2 (ZFS ZoL 0.8.1)
ฉันใช้พูล ZFS ขนาดใหญ่ที่สร้างขึ้นสำหรับ 256K + ตามลำดับขนาดการอ่านและการเขียนผ่าน iSCSI (สำหรับการสำรองข้อมูล) บน Ubuntu 18.04 เมื่อพิจารณาถึงความจำเป็นในการรับส่งข้อมูลและประสิทธิภาพพื้นที่ที่สูงและความต้องการบล็อกขนาดเล็กแบบสุ่มน้อยลงฉันจึงไปตรวจค้นลายทาง raidz2 บนกระจกลายทาง อย่างไรก็ตามประสิทธิภาพการอ่านตามลำดับ 256K นั้นต่ำกว่าที่ฉันคาดไว้มาก (100 - 200MBps สูงสุดถึง 600MBps) เมื่อ zvols กดปุ่ม ~ 99% iowait ใน iostat อุปกรณ์สำรองมักจะทำงานระหว่าง 10 และ 40% iowait ซึ่งแนะนำให้ฉันเห็นคอขวดเป็นสิ่งที่ฉันขาดการตั้งค่าเนื่องจากไม่ควรเป็น backplane หรือซีพียูใน ระบบนี้และปริมาณงานต่อเนื่องไม่ควรทำงานหนักเกินไป ฉันเล่นค่อนข้างน้อยด้วยพารามิเตอร์โมดูล (การตั้งค่าปัจจุบันด้านล่าง) อ่านบทความหลายร้อยเรื่องเกี่ยวกับ OpenZFS github ฯลฯ การปรับค่า prefetch และการรวมกันทำให้ฉันอยู่ในระดับประสิทธิภาพนี้ - โดยค่าเริ่มต้นฉันทำงานที่ประมาณ …

2
ฉันจะกำหนดสิทธิ์ที่ผู้ใช้ของฉันหายไปจากการรับชุดข้อมูล ZFS ได้อย่างไร
ฉันมี FreeNAS (11.1-U1) และ FreeBSD (11.1-RELEASE-p6) ใน FreeNAS ฉันต้องการzfs receiveเรียกซ้ำสแนปชอตในฐานะผู้ใช้ที่ไม่ใช่รูทด้วยสิทธิ์ที่ได้รับมอบหมาย ดูเหมือนว่าจะทำงานได้ดีสำหรับชุดข้อมูลส่วนใหญ่ แต่dataชุดข้อมูลของ iocage ซึ่งสามารถติดตั้งในคุกและจัดการจากที่นั่นพวกเขาล้มเหลว: root@freebsd:~> zfs send -RI "dozer@2018-02-21" "dozer@2018-03-08" | ssh -T -i /root/backup_key backupuser@freenas zfs receive -dvuF neo/backups/freebsd receiving incremental stream of dozer@2018-03-03 into neo/backups/freebsd@2018-03-03 received 312B stream in 1 seconds (312B/sec) receiving incremental stream of dozer@2018-03-07 into …

4
แถบ ZFS ที่ด้านบนของฮาร์ดแวร์ RAID 6 อาจมีข้อผิดพลาดอะไรบ้าง
ฉันมี HDD SAN ขนาด 36 * 4TB ตัวควบคุม RAID ไม่รองรับ RAID60 และไม่เกิน 16 HDD ในกลุ่ม RAID กลุ่มเดียว ฉันจึงตัดสินใจสร้างกลุ่ม RAID6 2 กลุ่มจาก 16HDD หรือ 4 จาก 8 HDD ฉันต้องการได้รับพื้นที่เก็บข้อมูลทั้งหมดเป็นหนึ่งพาร์ติชัน ดังนั้นสิ่งที่อาจผิดไปถ้าฉันจะใช้พูล zfs ที่ด้านบนของฮาร์ดแวร์ RAID6 ใช่ฉันรู้ว่าขอแนะนำอย่างยิ่งให้ใช้ HDD ดั้งเดิมหรือโหมดส่งผ่าน แต่ฉันไม่มีตัวเลือกนี้ หรือฉันควรอยู่ให้ห่างจาก ZFS และการบุกตรวจค้นซอฟต์แวร์ในสถานการณ์นี้ (ฉันส่วนใหญ่สนใจในการบีบอัดและภาพรวม)

1
OmniOS / ZFS / Windows 7:“ บันทึกเป็น” จากภายในแอปพลิเคชันใช้เวลา 5 วินาทีสำหรับไฟล์ทุกขนาดผ่าน CIFS / SMB
สถานการณ์: ปัญหาแปลก ๆ ต่อไปนี้เกิดขึ้นบนเซิร์ฟเวอร์ไฟล์เดียวที่ใช้ OmniOS r151018 (95eaa7e) ที่ให้บริการไฟล์ผ่าน SMB ไปยัง Windows และแขก OS X บันทึกไฟล์บางไฟล์ (.docx, .xlsx, บางภาพ) ผ่านหน้าต่างโต้ตอบ "บันทึกเป็น ... " บน SMB แบ่งปันผลลัพธ์ในความล่าช้าประมาณ 3 ถึง 5 วินาทีซึ่งแอปพลิเคชันไม่ตอบสนองเลยหลังจากนั้น ไฟล์ถูกบันทึกตามปกติ ปัญหาเกิดขึ้น "ข้ามคืน" โดยไม่ทำอะไรเลยกับเซิร์ฟเวอร์ แต่เป็นการยากที่จะระบุวันที่ที่แน่นอนเนื่องจากการร้องเรียนของผู้ใช้มาในระยะเวลาหนึ่งหลังจากเกิดเหตุการณ์ครั้งแรก หลังจากรีบูตเซิร์ฟเวอร์ vdev หนึ่งตัวของรูทพูลที่ทำมิรเรอร์ไม่พร้อมใช้งาน แต่การตรวจสอบอย่างใกล้ชิดไม่พบความผิดพลาดใด ๆ บนอุปกรณ์และถูกแนบไปยังพูล ปัญหายังคงมีอยู่ ข้อสังเกตบางอย่าง: มันเกิดขึ้นกับไคลเอนต์ Windows 7 ทั้งหมด มันเกิดขึ้นสำหรับทุกขนาดไฟล์ มันเกิดขึ้นกับการแชร์ทั้งหมดของเครื่องนี้โดยไม่คำนึงถึงสิทธิ์ มันเกิดขึ้นสำหรับที่เก็บข้อมูลที่เร็วกว่าที่นำเข้าบนโฮสต์ผ่าน iSCSI …

2
ข้อผิดพลาดการตรวจสอบ ZFS ฉันจะเปลี่ยนไดรฟ์เมื่อใด
ฉันค่อนข้างใหม่สำหรับ ZFS และฉันมีการตั้งค่าพูลหน่วยเก็บข้อมูลแบบมิร์เรอร์อย่างง่ายพร้อมไดรฟ์ 8 ตัว หลังจากใช้งานไปไม่กี่สัปดาห์ไดรฟ์หนึ่งตัวดูเหมือนจะสร้างข้อผิดพลาดได้มากมายดังนั้นฉันจึงทำการแทนที่ อีกไม่กี่สัปดาห์ข้างหน้าและตอนนี้ฉันเห็นข้อผิดพลาดเล็ก ๆ เกิดขึ้นรอบ ๆ สระ (ดูzpool statusผลลัพธ์ด้านล่าง) ฉันควรจะต้องกังวลเกี่ยวกับเรื่องนี้? ฉันจะทราบได้อย่างไรว่าข้อผิดพลาดระบุว่าจำเป็นต้องเปลี่ยนไดรฟ์หรือไม่ # zpool status pool: storage state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to …

3
ZFS volume ตามเป้าหมาย ISCSI
ฉันกำลังมองหา ZFS และใช้ FreeNAS สำหรับการจัดการ ZFS และมีคำถามต่อไปนี้: ข้อได้เปรียบของ ZFS เช่นการขจัดข้อมูลซ้ำซ้อนการแก้ไขข้อผิดพลาดอัตโนมัติและอื่น ๆ ยังคงทำงานเมื่อสร้างเป้าหมาย iSCSI บนโวลุ่ม ZFS ใน FreeNAS นี่อาจเป็นไฟล์ภาพดิบซึ่งใช้เป็นเป้าหมายในโวลุ่ม ZFS เนื่องจากเป็นแบบบล็อก (ไม่ใช่แบบไฟล์): ข้อดีของ ZFS ยังคงมีอยู่หรือไม่ แก้ไข: การใช้ที่ตั้งใจจะเป็นที่เก็บข้อมูลสำหรับ VMware (ESXi)
9 freebsd  zfs  freenas 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.