คำถามติดแท็ก zfs

ZFS เป็นระบบไฟล์และตัวจัดการโวลุ่มที่ทันสมัยซึ่งพัฒนาโดย Sun Microsystems และได้รับอนุญาตภายใต้ CDDL เป็นระบบไฟล์ copy-on-write ที่รองรับอาร์เรย์หน่วยเก็บข้อมูลขนาดใหญ่การป้องกันความเสียหายสแน็ปช็อตโคลนการบีบอัดการขจัดข้อมูลซ้ำซ้อนและ NFSv4 ACLs ทางแยกโอเพ่นซอร์สของ ZFS สามารถพบได้ที่ http://open-zfs.org/ ซึ่งได้รับการสนับสนุนโดย ZFSonlinux.org, illumos.org และนักพัฒนา ZFS ในชุมชน FreeBSD และ Mac OS X

1
พูล ZFS หรือกลุ่มวอลุ่ม LVM เชื่อถือได้มากขึ้นสำหรับการใช้หลายพาร์ติชันหรือไม่?
เมื่อตัดสินใจว่าจะใช้กลุ่มวอลุ่ม LVM หรือพูล ZFS ในการกำหนดค่าเซิร์ฟเวอร์ไฟล์ใหม่ต้องพิจารณาอะไรบ้าง มีตัวเลือก "ดีกว่า" ในขอบเขตของเซิร์ฟเวอร์ไฟล์อเนกประสงค์หรือไม่? ต่างจากคำถามก่อนหน้านี้ฉันไม่ต้องการเลเยอร์เทคโนโลยี สถานการณ์: เซิร์ฟเวอร์ RHEL / CentOS 6 x64 DAS และ SAN LUN ที่มีอยู่จำนวนมากที่มีอยู่ ทางเลือก: ฉันคุ้นเคยกับ LVM เป็นการส่วนตัวดังนั้นฉันจึงสบายใจที่จะใช้มันถ้าเป็นตัวเลือกที่ดีกว่า อย่างไรก็ตาม ZFS ดูมีแนวโน้มดีและการเรียนรู้เทคโนโลยีใหม่นั้นดีอยู่เสมอ ระบุว่าเราต้องการแบ่งปันร้านค้าที่มีขนาดใหญ่พอสมควร (หลาย TB) ไปยังแผนกต่างๆและพวกเขาจำเป็นต้องสามารถเข้าถึงพวกเขาได้ทั้ง CIFS และ NFS เราควรใช้ ZFS หรือ LVM สำหรับผู้จัดการกลุ่มพื้นฐาน ? ฉันรู้ว่าการใช้ผลิตภัณฑ์อย่างFreeNASนั้นเป็นไปได้ แต่ด้วยเหตุผลหลายประการฉันต้องสามารถใช้งานเซิร์ฟเวอร์ Linux ทั่วไปได้
11 linux  lvm  partition  zfs 

2
ฮาร์ดดิสก์ระดับผู้บริโภคตกลงสำหรับ zfs หรือไม่
ฉันเพิ่งซื้อเซิร์ฟเวอร์ใหม่ HP DL380 G6 ฉันแทนที่ตัวควบคุมสมาร์ทอาร์เรย์ p410 ของสต็อคด้วย LSI 9211-8i แผนของฉันคือใช้ ZFS เป็นที่เก็บข้อมูลพื้นฐานสำหรับ XEN ซึ่งจะทำงานบน baremetal เดียวกัน ฉันได้รับแจ้งว่าคุณสามารถใช้ดิสก์ SATA กับคอนโทรลเลอร์อาเรย์สมาร์ท แต่เนื่องจากไดรฟ์สำหรับผู้บริโภคขาด TLER, CCTL และ ERC ไม่แนะนำ เป็นกรณีนี้หรือไม่? ฉันสงสัยว่าการใช้ตัวควบคุม LSI ใน JBOD (โหมด RAID passthrough) ชนิดของดิสก์ที่ฉันใช้จริง ๆ มีผลกระทบมากเท่ากับที่ใช้กับตัวควบคุมอาร์เรย์อัจฉริยะหรือไม่ ฉันทราบว่าการพยายามใช้ระบบ RAID ที่ไม่ได้รับการสนับสนุนจากแคชการเขียนสำหรับการจำลองเสมือนนั้นไม่ดีต่อประสิทธิภาพ แต่ฉันกำลังเพิ่ม SSD สำหรับ ZFS มันจะสร้างความแตกต่างหรือไม่? ฉันเหตุผลที่ฉันหมกมุ่นอยู่กับการใช้ ZFS สำหรับการลดจำนวนและการบีบอัด ฉันไม่คิดว่าคอนโทรลเลอร์อาเรย์อัจฉริยะสามารถทำคุณสมบัติใด ๆ เหล่านี้ได้

4
ประสิทธิภาพของการเรียกใช้ VMs บนโฮสต์ ZFS คืออะไร
ฉันกำลังพิจารณาย้ายจาก ext3 เพื่อ ZFS สำหรับจัดเก็บข้อมูลบนโฮสต์ Debian Linux ของฉันใช้ZFS บน Linux คุณสมบัตินักฆ่าหนึ่งเดียวของ ZFS ที่ฉันต้องการคือการรับประกันความถูกต้องของข้อมูล ความสามารถในการเพิ่มขนาดพื้นที่จัดเก็บข้อมูลเล็กน้อยเนื่องจากความต้องการพื้นที่เก็บข้อมูลของฉันเพิ่มขึ้นเป็นสิ่งที่ฉันคาดหวัง อย่างไรก็ตามฉันยังใช้ VM สองสามตัวในโฮสต์เดียวกัน (แม้ว่าโดยปกติในกรณีของฉันมีเพียง VM เดียวเท่านั้นที่ทำงานบนโฮสต์ในเวลาใดก็ได้) พิจารณาการตรวจสอบข้อมูลของ ZFS และพฤติกรรมการคัดลอกเมื่อเขียนพร้อมกับความจริงที่ว่าอิมเมจดิสก์ VM เป็นไฟล์ขนาดใหญ่พอสมควร (ปัจจุบันไฟล์อิมเมจดิสก์ของ VM หลักของฉันอยู่ที่ 31 GB) สิ่งที่เกี่ยวข้องกับประสิทธิภาพภายใน VM แขกเช่น การโยกย้ายหรือไม่ ฉันสามารถใช้ขั้นตอนใดเพื่อลดผลกระทบด้านลบที่อาจเกิดขึ้นได้ ฉันสามารถอยู่กับการรับประกันความสมบูรณ์ของข้อมูลน้อยลงในอิมเมจดิสก์ VM หากจำเป็น (ฉันไม่ได้ทำสิ่งใดสำคัญใน VMs ใด ๆ ) และสามารถแยกพวกเขาออกจากส่วนที่เหลือของระบบไฟล์ได้อย่างง่ายดาย แต่ก็คงจะดีถ้าฉันไม่ ไม่จำเป็นต้องปิดคุณลักษณะใด ๆ ที่ทำให้ฉันต้องการโยกย้ายไปยังระบบไฟล์อื่น ฮาร์ดแวร์นั้นค่อนข้างอ้วนสำหรับระบบระดับเวิร์คสเตชั่น แต่จะไม่ถือเทียนจำนวนมากให้กับเซิร์ฟเวอร์ระดับไฮเอนด์ …

4
ฉันสามารถมั่นใจได้หรือไม่ว่า ZFS นั้นสอดคล้องกันระหว่าง Linux และ FreeBSD?
ฉันวางแผนที่จะสร้างกล่อง FreeNAS เร็ว ๆ นี้ แต่ถ้าในที่สุด ZFS บน Linux พิสูจน์แล้วว่าเชื่อถือได้ฉันอาจต้องการเปลี่ยนเพียงเพื่อให้มีระบบปฏิบัติการที่คุ้นเคยมากขึ้น ดังนั้นฉันจึงสงสัยว่าฉันจะเชื่อได้หรือไม่ว่าการใช้งาน ZFS ที่แตกต่างกันนั้นเข้ากันได้ กล่าวอีกนัยหนึ่งถ้าฉันเพียงแค่เปลี่ยนดิสก์สำหรับบูตจาก FreeNAS เป็น Linux หรือ OpenIndiana ฉันสามารถวางใจได้หรือไม่ว่าจะไม่มีข้อมูลที่ไม่ดีเกิดขึ้นกับข้อมูลของฉัน นี่อาจดูเหมือนคำถามงี่เง่า - เห็นได้ชัดว่ามันควรจะเข้ากันได้ - แต่ฉันเดาว่า ZFS ไม่ได้ใช้กันโดยทั่วไปในกรณีที่มีการย้ายไดรฟ์ระหว่างคอมพิวเตอร์ดังนั้นฉันหวังว่าจะมีคนตอบคำถามได้ดีกว่า เพียงแค่ "มันควรจะเป็น"
11 linux  freebsd  zfs  freenas 

3
อาเรย์ RAID-Z ขนาดใหญ่นั้นแย่พอ ๆ กับอาเรย์ RAID-5 ขนาดใหญ่หรือไม่?
เป็นเวลานานที่ฉันได้ยินเกี่ยวกับความคิดที่แย่ขนาดใหญ่ (> 5TB?) RAID-5 นั้นเป็นเพราะมีความเสี่ยงสูงที่ไดรฟ์อื่นจะล้มเหลว RAID-Z1 มีการจัดการเพื่อแก้ไขปัญหานี้สำหรับอาร์เรย์ขนาดใด ๆ (ถ้าคุณต้องการตัวเลขที่ต้องพิจารณาขนาด 4x2TB หรือ 5x2TB) อาจเป็นวิธีที่ปลอดภัยกว่าในการทำซ้ำข้อมูลที่ไม่ได้เข้มข้นในไดรฟ์ทั้งหมดหรือไม่
11 raid  zfs 

2
KVM บน Illumos (OpenIndiana vs. SmartOS)
ฉันกำลังพิจารณาการทำเวอร์ชวลจำนวนแขกบนเซิร์ฟเวอร์เดียวที่ใช้พอร์ตล่าสุดของ KVM ไปยัง Illumos ดูเหมือนว่าตัวเลือกหลักสองตัวของฉันคือ OpenIndiana และ SmartOS การแจกจ่ายที่ฉันจะจบลงโดยใช้ต้องเป็นไปตามข้อกำหนดต่อไปนี้ จำเป็นต้องสามารถจัดการและปรับแต่งผ่าน CLI (เช่นเปลี่ยนตัวเลือกระบบไฟล์ ZFS / zvol แนบไดรฟ์ภายนอกและคัดลอกข้อมูลไปยังมันหรือทำซ้ำข้อมูลโดยอัตโนมัติไปยังเซิร์ฟเวอร์ภายนอกโดยใช้การส่ง / รับ zfs) จำเป็นต้องใช้ ZFS snapshot อัตโนมัติ (เช่นใช้ zfs-auto-snapshot) จำเป็นต้องสามารถตั้งค่าการแจ้งเตือนทางอีเมลอัตโนมัติหากสถานะของเซิร์ฟเวอร์ลดลง โดยพื้นฐานแล้วการตั้งค่าการขัด ZFS เป็นระยะการตรวจสอบ zpool การจัดการข้อผิดพลาดและ / หรือปัญหา SMART และอีเมลเมื่อตรวจพบปัญหา ฯลฯ การตั้งค่านี้ด้วยตนเองเป็นปกติตราบใดที่ระบบปฏิบัติการอนุญาตให้ฉัน ควรจัดการกับแขกของ Debian, Ubuntu และ Windows 2008 Server R2 ด้วยเสถียรภาพที่ดีและประสิทธิภาพที่เหมาะสม แขกเหล่านี้จะถูกนำมาใช้ในการผลิต ควรมีความคาดหวังที่สมเหตุสมผลว่าการส่งมอบในอนาคตจะยังคงส่งมอบต่อไป - ฉันไม่ต้องการติดขัดโดยใช้ผลิตภัณฑ์ที่สิ้นตาย …

2
ZFS - ทำลาย zvol ที่ซ้ำซ้อนหรือชุดข้อมูลจะถ่วงเซิร์ฟเวอร์ วิธีการกู้คืน
ฉันใช้ Nexentastor บนเซิร์ฟเวอร์จัดเก็บข้อมูลสำรองที่ทำงานบน HP ProLiant DL180 G6 พร้อม 12 ไดรฟ์ Midline (7200 RPM) SAS ระบบมี CPU E5620 และ RAM 8GB ไม่มีอุปกรณ์ ZIL หรือ L2ARC เมื่อสัปดาห์ที่แล้วฉันสร้าง zvol กระจัดกระจาย 750GB โดยมีการหักและการบีบอัดเปิดใช้งานเพื่อแบ่งปันผ่าน iSCSI ไปยังโฮสต์ VMWare ESX ฉันสร้างอิมเมจเซิร์ฟเวอร์ไฟล์ Windows 2008 และคัดลอกข้อมูลผู้ใช้ ~ 300GB ไปยัง VM เมื่อมีความสุขกับระบบฉันย้ายเครื่องเสมือนไปยังที่จัดเก็บ NFS ในกลุ่มเดียวกัน ครั้งหนึ่งและทำงานกับ VMs ของฉันในที่เก็บข้อมูล NFS ฉันตัดสินใจที่จะลบ 750GB …

5
ตัวเลือกระบบไฟล์ที่ดีที่สุดสำหรับ NFS ที่เก็บอิมเมจดิสก์ VMware
ขณะนี้เราใช้ iSCSI SAN เป็นที่เก็บข้อมูลสำหรับเซิร์ฟเวอร์ VMware ESXi หลายเครื่อง ฉันกำลังตรวจสอบการใช้เป้าหมาย NFS บนเซิร์ฟเวอร์ Linux สำหรับเครื่องเสมือนเพิ่มเติม ฉันยังเปิดรับแนวคิดในการใช้ระบบปฏิบัติการทางเลือก (เช่น OpenSolaris) หากจะให้ประโยชน์ที่สำคัญ ระบบไฟล์ที่ใช้ระบบปฏิบัติการ Linux รองรับไฟล์ที่มีขนาดใหญ่มาก (เช่นดิสก์อิมเมจของ VMware) หรืออีกวิธีหนึ่งที่ผู้คนค้นพบ ZFS บน OpenSolaris สำหรับปริมาณงานประเภทนี้? ( แต่เดิมคำถามนี้ถูกถามใน SuperUser คุณสามารถโยกย้ายคำตอบได้ที่นี่หากคุณรู้วิธี)

5
สิ่งใดเร็วกว่าสำหรับการเข้าถึงแบบอ่านบน EC2 ไดรฟ์ในท้องถิ่นหรือ EBS
สิ่งใดเร็วกว่าสำหรับการเข้าถึงการอ่านบนอินสแตนซ์ EC2 ไดรฟ์ "ภายในเครื่อง" หรือไดรฟ์ EBS ที่ต่อพ่วงหรือไม่ ฉันมีข้อมูลบางส่วนที่ต้องยืนยันเพื่อให้ได้ข้อมูลนี้ในโวลุ่ม EBS ฉันใช้ OpenSolaris ดังนั้นไดรฟ์ข้อมูลนี้จึงถูกแนบเป็นพูล ZFS อย่างไรก็ตามฉันมีพื้นที่ดิสก์ขนาดใหญ่ของ EC2 ที่ไม่ได้ใช้งานดังนั้นฉันจึงพิจารณาใหม่อีกครั้งว่านี่เป็นโวลุ่มแคช ZFS แต่ฉันไม่ต้องการทำสิ่งนี้หากการเข้าถึงดิสก์จะช้ากว่า ที่ของปริมาณ EBS เพราะมันอาจจะมีผลกระทบที่เป็นอันตราย

8
ไม่สามารถทำลาย ZFS snapshot: ชุดข้อมูลมีอยู่แล้ว
ฉันมีเซิร์ฟเวอร์ (T5220 แต่ฉันสงสัยว่ามันสำคัญ) ที่รัน Solaris 10 8/07 และฉันมีพูล ZFS "mysql" บนดิสก์ภายใน ภายในนั้นฉันมีระบบไฟล์ "mysql / data / 4.1.12" ซึ่งฉันถ่ายภาพทุกชั่วโมงด้วยสคริปต์จาก cron ฉันมีหนึ่งสแนปชอตซึ่งสร้างขึ้นเป็นหนึ่งในสแน็ปช็อตรายชั่วโมงเหล่านั้นซึ่งจะไม่ทำลาย ฉันได้เปลี่ยนชื่อมันเป็นลำดับ "mysql/data/4.1.12@wibble" เพื่อที่สคริปต์ของฉันจะไม่พยายามและล้มเหลวในการทำลาย แต่ตอนแรกมันอยู่ในลำดับแม้ว่าฉันสงสัยว่ามันสำคัญ เปลี่ยนชื่อสำเร็จแล้ว สแน็ปช็อตสามารถสำรวจได้สำเร็จและอ่านจากไดเรกทอรี. zfs / snapshots มันไม่มีการโคลนนิ่งจากมัน พยายามทำลายสิ่งนี้: (265) root@web-mysql4:/# zfs destroy mysql/data/4.1.12@wibble cannot destroy 'mysql/data/4.1.12@wibble': dataset already exists (266) root@web-mysql4:/# ซึ่งดูเหมือนจะไร้สาระ: แน่นอนว่ามันมีอยู่แล้วนั่นคือประเด็น! ใครเคยเห็นอะไรแบบนี้มาก่อน? การค้นหาเว็บแสดงให้เห็นว่าไม่มีอะไรคล้ายกันอย่างชัดเจน ฉันสามารถจัดหาแพตช์ติดตั้งได้หากจำเป็น
11 solaris  zfs 

2
วิธีอัปเกรดอาร์เรย์ ZFS RAID-Z เป็นดิสก์ขนาดใหญ่บน OpenSolaris
ฉันวางแผนที่จะติดตั้ง OpenSolaris บนโฮมเซิร์ฟเวอร์ของฉัน (ตอนนี้มี Linux) และฉันต้องการทราบวิธีการเตรียมการอัพเกรดเซิร์ฟเวอร์ให้มีฮาร์ดไดรฟ์ขนาดใหญ่ขึ้นในอนาคต ตอนนี้เซิร์ฟเวอร์มีไดรฟ์ 4x400GB SATA และฉันจะติดตั้ง OpenSolaris ด้วย ZFS RAID-Z ในภายหลังในปีนี้หรือปีหน้าฉันจะอัพเกรดไดรฟ์เป็นไดร์ฟ SATA ขนาด 4x1TB ฉันจะทำการอัพเกรดและเพิ่มขนาดพาร์ติชันด้วย ZFS ได้อย่างไร? เป็นการดำเนินการที่ง่ายและไม่เจ็บปวด (เช่นเปลี่ยนไดร์ฟครั้งละหนึ่งครั้งและ ZFS จะปรับขนาดตัวเองให้ใช้พื้นที่เต็มโดยอัตโนมัติ) หรือจำเป็นต้องมีขั้นตอนพิเศษบางอย่าง? มันสามารถทำได้โดยไม่ต้องปิดระบบ?

3
การนำเข้า ZFS ไม่พบพูลใด ๆ
ฉันมีพูล ZFS - มิเรอร์ที่มี 2 vdevs - ทำงานบนเซิร์ฟเวอร์ FreeBSD ตอนนี้ฉันมีดิสก์แผ่นเดียวจากมิเรอร์และฉันพยายามกู้คืนไฟล์จากมัน ข้อมูล ZFS อยู่ในพาร์ติชัน GPT บนดิสก์ เมื่อฉันพยายามนำเข้าพูลไม่มีวี่แววว่ามีอยู่จริง ฉันลองหลายวิธีแล้ว แต่ไม่มีอะไรเกิดขึ้น ฉันทำงานzdb -luบนพาร์ติชันแล้วและดูเหมือนว่าจะพบป้ายกำกับได้ดี # zpool import # zpool import -D # zpool status no pools available # zpool import -f ztmp cannot import 'ztmp': no such pool available # zpool import 16827460747202824739 cannot …

4
วิธีการรันคำสั่งเมื่อ ZFS ขัด * เสร็จสมบูรณ์ *?
ฉันต้องการใช้ cron เพื่อกำหนดตารางการขัดเป็นระยะของสระ ZFS ของฉันและในเวลาสั้น ๆ พอสมควรหลังจากการขัดเสร็จสิ้นส่งอีเมลรายงานสถานะถึงตัวฉันเอง วัตถุประสงค์ของการทำเช่นนี้คือการตรวจสอบปัญหาต่าง ๆ โดยไม่ต้องค้นหาด้วยตนเอง (ผลักดันแทนที่จะดึง) ส่วนแรกนั้นง่าย: เพียงแค่ตั้งค่างาน cron เพื่อทำงานzpool scrub $POOLเป็น root ในทุกช่วงเวลาที่เหมาะสมในสถานการณ์เฉพาะของฉัน ส่วนที่สองฉันยังไม่ค่อยแน่ใจว่าจะทำอย่างไร zpool scrubส่งคืนทันทีและจากนั้นระบบจะรันสครับในพื้นหลัง (ซึ่งเป็นพฤติกรรมที่พึงประสงค์อย่างแน่นอนหากผู้ดูแลระบบเริ่มต้นการสครับจากผู้ใช้) zpool statusให้รายงานสถานะและออก (พร้อมรหัสทางออก 0 ในขณะที่การขัดกำลังทำงานอยู่ แต่ยังไม่เสร็จดังนั้นฉันไม่ทราบว่าสถานะทางออกเปลี่ยนเมื่อเสร็จแล้ว แต่ฉันสงสัย) พารามิเตอร์เดียวที่บันทึกไว้สำหรับ zpool scrub คือ-s"หยุดการขัดถู" ปัญหาหลักคือการตรวจสอบการเปลี่ยนสถานะจากการขัดถูเพื่อขัดสำเร็จรูป ระบุว่าส่วนที่เหลือควรตกอยู่ในสถานที่ เป็นการดีที่ฉันต้องการบอกzpool scrubไม่ให้กลับจนกว่าการขัดผิวจะเสร็จสิ้น แต่ฉันไม่เห็นวิธีที่จะทำเช่นนั้น (มันจะทำให้ง่ายเกินไปที่จะ cron ง่ายๆzpool scrub --wait-until-done $POOL; zpool status $POOL) หากล้มเหลวฉันต้องการถามระบบว่ากำลังทำการขัดอยู่หรือไม่โดยเฉพาะอย่างยิ่งในวิธีที่ไม่เสี่ยงกับการอัปเกรดหรือการเปลี่ยนแปลงการกำหนดค่าเพื่อให้ฉันสามารถทำงานก่อนหรือไม่ การขัดเสร็จสิ้นแล้ว …
11 linux  monitoring  zfs 

6
ZFS Like ทางเลือกบน Windows
ตามแนวคิดและฉันไม่คิดว่าฉันอยู่คนเดียวที่นี่ฉันรักแนวคิดของ ZFS คุณสามารถสร้างดิสก์ขนาดใหญ่หนึ่งแผ่นได้ทุกอย่างถูกเก็บไว้ในไดรฟ์หลายตัวและคุณสามารถขยายและย่อขนาดพูลและไดรฟ์ได้ตลอดเวลา นอกจากนี้ดิสก์ไม่จำเป็นต้องเหมือนกัน ฯลฯ สิ่งที่ฉันเกลียดเกี่ยวกับ ZFS ก็คือสิ่งที่ดีที่สุดที่ฉันสามารถบอกได้ว่าเป็นเพียงรูปแบบที่มั่นคงอย่างแท้จริงบน Solaris ที่ทำงานบนฮาร์ดแวร์ของ Oracle (เดิมคือ Sun) แน่นอนว่า OpenSolaris มีอยู่แล้วและ FreeBSD มีการสนับสนุน ZFS แต่โดยทั่วไปมีความน่าเชื่อถือว่าไม่ดีเมื่อใช้ FreeBSD / OpenSolairs / Solaris บนฮาร์ดแวร์ที่ไม่ใช่ oracle เราเรียกใช้ (เฉพาะในขณะนี้) เซิร์ฟเวอร์ Window Server 2008 R2 ตัวเลือกการจัดเก็บ DAS "ถัดไปดีที่สุด" สำหรับระบบปฏิบัติการนี้คืออะไร ฉันไม่สามารถใช้ ZFS สำหรับ windows ได้ มีการ์ด RAID ของ myrad อยู่: ใครบางคนสามารถแนะนำการตั้งค่าที่เข้าใกล้ความยืดหยุ่นของ ZFS …

1
ทำไม `zfs list` และ` zpool list` รายงานขนาดที่แตกต่างกันมากสำหรับพูล raidz2 ของฉัน
ฉันมีเซิร์ฟเวอร์ ZFS ที่มี 8 zpool แต่ละพูลมีดิสก์ 6 6TB ในการกำหนดค่า 10 + 2 RAIDZ ดังนั้นแต่ละพูลมีพื้นที่เก็บข้อมูลดิบ 12 * 6 = 72 TB และพื้นที่ใช้งาน 10 * 6 = 60 TB อย่างไรก็ตามฉันเห็นผลลัพธ์ที่แตกต่างกันเมื่อฉันค้นหาโดยใช้zfs listและใช้zpool listเป็นด้านล่าง: # zfs list NAME USED AVAIL REFER MOUNTPOINT intp1 631K 48.0T 219K /intp1 intp2 631K 48.0T 219K /intp2 intp3 631K …
11 zfs  zfsonlinux 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.