คำถามติดแท็ก zfs

ZFS เป็นระบบไฟล์และตัวจัดการโวลุ่มที่ทันสมัยซึ่งพัฒนาโดย Sun Microsystems และได้รับอนุญาตภายใต้ CDDL เป็นระบบไฟล์ copy-on-write ที่รองรับอาร์เรย์หน่วยเก็บข้อมูลขนาดใหญ่การป้องกันความเสียหายสแน็ปช็อตโคลนการบีบอัดการขจัดข้อมูลซ้ำซ้อนและ NFSv4 ACLs ทางแยกโอเพ่นซอร์สของ ZFS สามารถพบได้ที่ http://open-zfs.org/ ซึ่งได้รับการสนับสนุนโดย ZFSonlinux.org, illumos.org และนักพัฒนา ZFS ในชุมชน FreeBSD และ Mac OS X

1
ทำไมการรีบูตเครื่องทำให้กระจก ZFS ด้านหนึ่งของฉันกลายเป็น UNAVAIL
ฉันเพิ่งโอนย้ายพูลหน่วยเก็บข้อมูลขนาดใหญ่ (ZFS บน Linux 0.6.2, Debian Wheezy) จากการกำหนดค่าอุปกรณ์ vdev ไปยังการกำหนดค่ามิเรอร์ vdev แบบสองทาง การกำหนดค่าพูลก่อนหน้านี้คือ: NAME STATE READ WRITE CKSUM akita ONLINE 0 0 0 ST4000NM0033-Z1Z1A0LQ ONLINE 0 0 0 ทุกอย่างเรียบร้อยหลังจากผู้กู้เสร็จสิ้น (ฉันเริ่มต้นการขัดหลังจากผู้กู้เสร็จสิ้นเพียงเพื่อให้ระบบกลับไปใช้ทุกอย่างอีกครั้งและตรวจสอบให้แน่ใจว่าทุกอย่างดี): pool: akita state: ONLINE scan: scrub repaired 0 in 6h26m with 0 errors on Sat May 17 06:16:06 2014 config: …
13 linux  zfs  mirror  udev  zfsonlinux 

1
กำลังอัปเดตการตรวจสอบกับ zfs หรือไม่
ฉันเพิ่งเปลี่ยนchecksumคุณสมบัติในหนึ่งในระบบไฟล์ zfs ที่ไม่ซ้ำกันของฉันเป็นsha256จากon(fletcher4) เพื่อรองรับการส่งไอน้ำจำลองแบบที่ซ้ำกันได้ดีขึ้นเช่นเดียวกับในคำสั่งzfs send -DR -I _starting-snaphot_ _ending-snapshot_นี้ อย่างไรก็ตาม zfs manpage มีสิ่งนี้จะพูดเกี่ยวกับsend -D: แฟล็กนี้สามารถใช้งานได้โดยไม่คำนึงถึงคุณสมบัติการขจัดความซ้ำซ้อนของชุดข้อมูล แต่ประสิทธิภาพจะดีกว่ามากหากระบบไฟล์ใช้การตรวจสอบความสามารถในการขจัดความซ้ำซ้อน (เช่น sha256) zfs manpage ระบุสิ่งนี้เกี่ยวกับchecksumคุณสมบัติ: การเปลี่ยนแปลงคุณสมบัตินี้มีผลกับข้อมูลที่เพิ่งเขียนใหม่เท่านั้น ฉันไม่มีความปรารถนาที่จะเชื่อใจ fletcher4 ข้อเสียคือแตกต่างจาก SHA256, fletcher4 ไม่ใช่ฟังก์ชันแฮชหลอกแบบสุ่มดังนั้นจึงไม่สามารถเชื่อถือได้ว่าจะไม่ชนกัน ดังนั้นจึงเหมาะสำหรับการลดความซ้ำซ้อนเมื่อรวมกับตัวเลือก 'ตรวจสอบ' ซึ่งตรวจจับและแก้ไขการชนกันของแฮช ฉันจะอัปเดต checksums ของระบบไฟล์ได้อย่างไรโดยเฉพาะอย่างยิ่งโดยไม่ต้องตัดระบบ
13 zfs  zfsonlinux 

1
การคำนวณ IOPS สำหรับ ZFS RAIDZ นั้นแตกต่างจากนั้นคำนวณ IOPS สำหรับ RAID5 & RAID6 หรือไม่
เมื่อทำการคำนวณ IOPS สำหรับอาร์เรย์ RAID แบบดั้งเดิมใคร ๆ ก็สามารถใช้สูตรต่อไปนี้ได้ (ยืมมาจากการหยุดแฮงค์ของ IOPS v1.3บน Symantec Connect): Ieffective = (n * Isingle) / (READ% + (F * WRITE%)) ที่ไหน: ประสิทธิภาพคือจำนวน IOPS ที่มีประสิทธิภาพ Isingle เป็นIOPS เฉลี่ยของไดรฟ์เดียว n คือจำนวนดิสก์ในอาร์เรย์ READ% คือส่วนของการอ่านที่นำมาจากการทำโปรไฟล์ดิสก์ WRITE% เป็นส่วนของการเขียนที่นำมาจากการทำโปรไฟล์ดิสก์ F คือการลงโทษการเขียน RAID : RAID Level Write Penalty RAID-0 1 RAID-1 2 RAID-5 4 …

6
คำแนะนำตัวควบคุม ZFS SAS / SATA
ล็อคแล้ว คำถามและคำตอบของคำถามนี้ถูกล็อคเนื่องจากคำถามอยู่นอกหัวข้อ แต่มีความสำคัญทางประวัติศาสตร์ ขณะนี้ไม่ยอมรับคำตอบหรือการโต้ตอบใหม่ ฉันทำงานกับ OpenSolaris และ ZFS เป็นเวลา 6 เดือนโดยหลัก ๆ คือ Sun Fire x4540 และฮาร์ดแวร์ Dell และ HP มาตรฐาน ข้อเสียอย่างหนึ่งของคอนโทรลเลอร์ Perc และ HP Smart Array มาตรฐานคือพวกเขาไม่มีโหมด JBOD "passthrough" ที่แท้จริงในการนำเสนอดิสก์แต่ละตัวให้กับ ZFS หนึ่งสามารถกำหนดค่าหลายอาร์เรย์ RAID 0 และทำให้พวกเขาทำงานใน ZFS แต่มันส่งผลกระทบต่อความสามารถในการ hotswap (จึงต้องรีบูตเมื่อดิสก์ล้มเหลว / เปลี่ยน) ฉันอยากรู้ว่าตัวควบคุม SAS / SATA ชนิดใดที่แนะนำสำหรับโซลูชั่นการจัดเก็บ ZFS ที่ผลิตเอง นอกจากนี้แคชการเขียนสำรองแบตเตอรี่ …

2
เหตุใดไดเร็กทอรีสแน็ปช็อต ZFS ทั้งหมดของฉันจึงว่างเปล่า
ฉันทำงานของ Oracle 11 กล่องเป็นเครื่องใช้ในการจัดเก็บ ZFS และฉันถ่ายภาพรวมปกติของระบบไฟล์ ZFS cronผ่าน ในอดีตฉันรู้ว่าถ้าฉันต้องการคว้าไฟล์ใดไฟล์หนึ่งจากสแน็ปช็อตสำเนาแบบอ่านอย่างเดียวจะถูกเก็บไว้.zfs/snapshot/{name}/และฉันก็สามารถนำทางไปที่นั่นแล้วดึงไฟล์ออกมาได้ นี้เป็นเอกสารบนเว็บไซต์ของออราเคิล อย่างไรก็ตามฉันไปทำสิ่งนี้ในวันอื่นและสังเกตว่าไดเรกทอรี ZFS ในไดเรกทอรี snapshot นั้นว่างเปล่า zfs list -t snapshotแสดงรายการสแน็ปช็อตที่.zfs/snapshotsถูกต้องและมีไดเรคทอรีสำหรับแต่ละสแน็ปช็อตอย่างถูกต้องและในสแน็ปช็อตแต่ละรายการจะมีไดเรกทอรีอยู่สำหรับแต่ละระบบไฟล์ ZFS อย่างไรก็ตามไดเรกทอรีเหล่านี้ดูเหมือนจะว่างเปล่า ฉันเพิ่งทดสอบการคืนค่าโดยการแตะไฟล์ในการแชร์ที่ใช้เพียงเล็กน้อยและย้อนกลับไปที่สแน็ปช็อตรายชั่วโมงล่าสุดและสิ่งนี้ดูเหมือนว่าจะทำงานได้ดี ดังนั้นจึงมีฟังก์ชั่นย้อนกลับ ออราเคิลเปลี่ยนวิธีถ่ายภาพสแนปชอตหรือไม่? หรือมีบางอย่างผิดปกติที่นี่?
13 solaris  zfs  snapshot 

3
ชุดข้อมูล ZFS หายไปเมื่อรีบูต
ฉันได้ติดตั้ง ZFS (0.6.5) ใน Centos 7 ของฉันแล้วและฉันได้สร้าง zpool ทุกอย่างทำงานได้ดีนอกเหนือจากความจริงที่ว่าชุดข้อมูลของฉันหายไปเมื่อรีบูต ฉันพยายามแก้ไขปัญหานี้ด้วยความช่วยเหลือของแหล่งข้อมูลออนไลน์และบล็อกต่างๆ แต่ไม่สามารถรับผลลัพธ์ที่ต้องการได้ หลังจากรีบูตเมื่อฉันออกzfs listคำสั่งฉันได้รับ"ไม่มีชุดข้อมูล"และzpool listให้"ไม่มีกลุ่มที่มี" หลังจากทำการวิจัยออนไลน์จำนวนมากฉันสามารถทำให้มันทำงานได้โดยการนำเข้าไฟล์แคชด้วยตนเองโดยใช้zpool import -c cachefileแต่ ฉันยังคงต้องใช้งานzpool set cachefile = / etc / zfs / zpool.cache Poolก่อนที่จะทำการรีบูทเพื่อที่จะนำเข้ามันในภายหลังหลังจากรีบูต นี่คืออะไรsystemctl status zfs-import-cache ดูเหมือนกับ, zfs-import-cache.service - Import ZFS pools by cache file Loaded: loaded (/usr/lib/systemd/system/zfs-import-cache.service; static) Active: inactive (dead) cat /etc/sysconfig/zfs …

5
การสำรองฐานข้อมูล MySQL ผ่านทาง ZFS snapshot
ฉันพบเว็บไซต์จำนวนหนึ่งที่พูดถึงเรื่องนี้ แต่ฉันก็ยังขาดรายละเอียดที่สำคัญบางประการ ขั้นตอนทั่วไปคือ วิ่ง FLUSH TABLES WITH READ LOCK ใช้สแน็ปช็อต ZFS วิ่ง UNLOCK TABLES แหล่งต่าง ๆ รายงานว่า InnoDB FLUSHซึ่งผมใช้ไม่ได้จริงเกียรติ คู่มือผู้ใช้ MySQL บันทึกว่ามีFLUSH TABLES...FOR EXPORTตัวแปรสำหรับใช้กับ InnoDB แต่ต้องระบุแต่ละตารางแยกต่างหากแทนที่จะสำรองฐานข้อมูลทั้งหมด ฉันต้องการหลีกเลี่ยงการระบุแต่ละตารางเป็นรายบุคคลเนื่องจากมีโอกาสดีที่รายการของตารางจะไม่ซิงค์กับตารางที่มีอยู่จริง ปัญหาอื่น ๆ mysql -h"$HOST" -u"$USERNAME" -p"$PASSWORD" --execute="FLUSH TABLES WITH READ LOCK"ที่ผมมีคือผมวางแผนที่จะทำสิ่งที่ชอบ อย่างไรก็ตามการทำเช่นนี้จะปลดล็อกทันทีหลังจากออกจากเซสชัน มันสมเหตุสมผล แต่ก็ค่อนข้างน่ารำคาญเพราะฉันต้องกดปุ่มล็อกการอ่านเมื่อฉันถ่ายรูป แนวคิดอื่น ๆ ของฉันคือใช้แบ็คอัพที่ร้อนแรงโดยใช้เครื่องมืออย่าง Percona XtraBackup และการสแน็ปช็อตการสำรองข้อมูล แต่ฉันไม่ต้องการจ่ายค่าใช้จ่ายในการเขียนข้อมูลทั้งหมดของฉันไปยังตำแหน่งที่สองเพื่อถ่ายภาพ
12 mysql  backup  freebsd  zfs  innodb 

3
ทำไม ZFS บน Linux ไม่สามารถใช้ 8x SSD บนอินสแตนซ์ของ AWS i2.8x large ได้อย่างเต็มที่?
ฉันใหม่สำหรับ ZFS อย่างสมบูรณ์ดังนั้นเริ่มต้นด้วยฉันคิดว่าฉันจะทำมาตรฐานง่ายๆเพื่อให้ได้รับความรู้สึกว่ามันทำงานอย่างไร ฉันต้องการผลักดันขีด จำกัด ของประสิทธิภาพดังนั้นฉันจึงเตรียมi2.8xlargeอินสแตนซ์Amazon EC2 (เกือบ $ 7 / ชม. เวลาจริง ๆ แล้วเป็นเงิน!) อินสแตนซ์นี้มี 8 800GB SSD ฉันfioทำการทดสอบ SSD ด้วยตนเองและได้รับผลลัพธ์ต่อไปนี้ (ตัดแต่ง): $ sudo fio --name randwrite --ioengine=libaio --iodepth=2 --rw=randwrite --bs=4k --size=400G --numjobs=8 --runtime=300 --group_reporting --direct=1 --filename=/dev/xvdb [trimmed] write: io=67178MB, bw=229299KB/s, iops=57324, runt=300004msec [trimmed] 57K IOPS สำหรับการเขียนแบบสุ่ม 4K น่านับถือ …

2
จำเป็นต้องเปลี่ยนดิสก์ใน zpool …สับสน
ฉันต้องการแทนที่ดิสก์ที่ไม่ดีใน zpool บน FreeNAS zpool status แสดงให้เห็นว่า pool: raid-5x3 state: ONLINE scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014 config: NAME STATE READ WRITE CKSUM raid-5x3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada5p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 …
12 freebsd  zfs  freenas  raidz  zpool 

1
รายละเอียดทางเทคนิคสำหรับคุณสมบัติการทำซ้ำเซิร์ฟเวอร์ 2012
ตอนนี้ Windows Server 2012 มาพร้อมกับคุณสมบัติการทำซ้ำสำหรับวอลุ่ม NTFSฉันมีเวลายากในการหารายละเอียดทางเทคนิคเกี่ยวกับเรื่องนี้ ฉันสามารถอนุมานได้จากเอกสารของ TechNet ว่าการยกเลิกการทำซ้ำตัวเองเป็นกระบวนการแบบอะซิงโครนัส - ไม่เหมือนกับวิธีSIS Groveler ที่ใช้ในการทำงาน - แต่ไม่มีรายละเอียดเกี่ยวกับการใช้งานจริง ๆ สิ่งที่ควรพิจารณาคือคำแนะนำสไตล์กฎกติกา) ข้อมูลเชิงลึกและพอยน์เตอร์ได้รับการชื่นชมอย่างมากการเปรียบเทียบประสิทธิภาพการทำสำเนา ZFS ของ Solaris สำหรับชุดสถานการณ์จะยอดเยี่ยม

3
ZFS: คุณจะกู้คืนจำนวนสำเนาที่ถูกต้องได้อย่างไรหลังจากสูญเสียไดรฟ์
ด้วย zfs หากคุณมีcopies=2แล้วคุณสูญเสียไดรฟ์ที่มีสำเนาเหล่านั้นคุณจะบอกระบบว่าควรทำสำเนาบล็อกข้อมูลใหม่สำหรับไฟล์ที่ได้รับผลกระทบอย่างไร หรือ zfs เพิ่งเริ่มเพิ่มบล็อคข้อมูลสำหรับสำเนาเพิ่มเติมทันทีที่พบข้อมูลบล็อกข้อมูลที่ไม่ดี? สครับจะทำเช่นนี้? (v0.6.0.56-rc8, ZFS พูลเวอร์ชั่น 28, ระบบไฟล์ ZFS เวอร์ชั่น 5, Ubuntu 11.10)
12 zfs 

5
ZFS: แจกจ่าย zvol บนดิสก์ทั้งหมดใน zpool หรือไม่
มีวิธีใดบ้างที่ ZFS จะได้รับพร้อมท์ให้แจกจ่ายระบบไฟล์ที่กำหนดเหนือดิสก์ทั้งหมดใน zpool หรือไม่ ฉันกำลังคิดถึงสถานการณ์ที่ฉันมีปริมาณ ZFS คงที่ซึ่งส่งออกเป็น LUN ผ่าน FC zpool ปัจจุบันมีขนาดเล็กเพียงดิสก์มิรเรอร์ 1TB สองตัวและ zvol นั้นรวม 750GB ถ้าฉันจะขยายขนาดของสวนสัตว์ให้ใหญ่ขึ้นทันทีพูดว่าดิสก์ขนาด 12 1TB ฉันเชื่อว่า zvol จะยังคงเป็น 'ที่ตั้ง' ในสองแกนแรกเท่านั้น เมื่อระบุว่าแกนหมุนมากขึ้น = IOPS มากขึ้นฉันจะใช้วิธีใดในการ 'แจกจ่ายซ้ำ' zvol บนแกนหมุนทั้ง 12 ลูกเพื่อใช้ประโยชน์จากพวกเขา?
12 zfs  iops  zvol 

7
ทางเลือก ZFS สำหรับ Linux?
ฉันใช้ OpenSolaris กับ ZFS สำหรับไฟล์เซิร์ฟเวอร์หลักของฉัน ตอนแรกฉันไปกับ ZFS เพราะฉันได้ยินสิ่งที่ยอดเยี่ยมมากมายเกี่ยวกับเรื่องนี้: ดิสก์ทอดอัตโนมัติ (zpools) ซอฟต์แวร์ RAID (RAID-Z) การปรับขนาดพูลอัตโนมัติโดยแทนที่ดิสก์ RAIDZ การตรวจสอบระดับบล็อก ไม่มีข้อ จำกัด ด้านปริมาณเดี่ยว การขจัดข้อมูลซ้ำซ้อน "เร็ว ๆ นี้" หลังจากแหย่ที่ OpenSolaris ซักพักมันก็ทำให้ฉันรำคาญจริงๆ ฉันรู้จัก Fedora / CentOS และ Debian / Ubuntu ได้ดีกว่าและฉันก็คุ้นเคยกับวิธีการทำ Linux กับรุ่น Solaris / BSD ฉันต้องการเปลี่ยนเป็น Linux แต่ฉันไม่รู้ว่าจะใช้อะไรกับ FS ของฉัน ฉันไม่เต็มใจที่จะใช้ FUSE หรือเคอร์เนลก่อนเบต้าเพื่อรับ ZFS Btrfs …
12 linux  filesystems  zfs 

6
วิธีการตรวจสอบดิสก์ที่ล้มเหลวในการตั้งค่า FreeNAS / ZFS
ฉันกำลังสร้างเซิร์ฟเวอร์ที่ใช้ FreeNAS ในกล่องหุ้ม Supermicro X6DHE-XB 3U พร้อม RAM 4GB, อ่าว SATA hot-swap 16 SATA มันมาพร้อมกับการ์ด 2x8 พอร์ต 3Ware RAID แต่ฉันวางแผนที่จะใช้ความสามารถของ ZFS แทนการใช้ฮาร์ดแวร์ RAID ชุดไดรฟ์เริ่มต้นของฉันจะเป็นไดรฟ์ HITACHI Deskstar 7K3000 HDS723020BLA642 ถ้าฉันใช้ RAID แบบฮาร์ดแวร์มันจะให้แสงสีแดงบนช่องไดรฟ์ที่ไดรฟ์ล้มเหลว มันทำงานอย่างไรกับ ZFS เมื่อไดรฟ์ล้มเหลว ฉันไม่คิดว่าจะมีการรับประกันใด ๆ ว่า sda = bay1, sdb = bay2 ฯลฯ ดังนั้นคุณจะทราบได้อย่างไรว่าต้องเปลี่ยนไดรฟ์ตัวใด ZFS สามารถรายงานกลับไปที่คอนโทรลเลอร์ SATA เพื่อเปิดไฟ "ล้มเหลวของไดรฟ์" …
12 zfs  freenas 

2
ทำไม ZFS ถึงช้ากว่า ext4 และ btrfs มาก
ปัญหา ฉันเพิ่งติดตั้งดิสก์ใหม่และสร้าง zpool ไว้ใน: /# zpool create morez /dev/sdb หลังจากใช้ไปซักพักฉันสังเกตว่ามันค่อนข้างช้า: /morez# fio --name rw --rw rw --size 10G read: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) write: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) การทดสอบนี้ค่อนข้างคล้ายกับกรณีการใช้งานจริงของฉัน ฉันกำลังอ่านภาพในระดับปานกลาง (~ 10k) ของภาพ (ประมาณ 2 MiB) จากดิสก์ พวกเขาเขียนทั้งหมดในครั้งเดียวเมื่อดิสก์ว่างเปล่าเป็นส่วนใหญ่ดังนั้นฉันไม่คาดหวังให้แยกส่วน สำหรับการเปรียบเทียบฉันทดสอบ ext4: /# gdisk /dev/sdb ... /# mkfs.ext4 -f /dev/sdb1 && mount /dev/sdb1 /mnt …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.