คำถามติดแท็ก xfs

XFS เป็นระบบไฟล์เดิมสำหรับ IRIX OS ของ SGI แต่ตอนนี้พร้อมใช้งานสำหรับ Linux แล้ว เป็นที่รู้จักในการจัดการไฟล์ขนาดใหญ่และระบบไฟล์ขนาดใหญ่ซึ่งเป็นหนึ่งในระบบไฟล์ Linux ไม่กี่ระบบที่สามารถรองรับพาร์ติชันที่มีขนาดมากกว่า 16.8TB ได้

1
เหตุใดระบบไฟล์ XFS ของฉันจึงใช้พื้นที่มากขึ้นและเต็มไปด้วยไฟล์ที่กระจัดกระจาย
ฉันใช้ระบบไฟล์ XFSเป็นพาร์ติชั่นข้อมูล / การเติบโตเกือบ 10 ปีในเซิร์ฟเวอร์ Linux ต่างๆ ฉันสังเกตเห็นปรากฏการณ์แปลก ๆ กับเซิร์ฟเวอร์ CentOS / RHEL ล่าสุดที่ใช้งานเวอร์ชัน 6.2+ การใช้ระบบไฟล์ที่เสถียรกลายเป็นตัวแปรสูงหลังจากย้ายไปยังการแก้ไขระบบปฏิบัติการรุ่นใหม่จาก EL6.0 และ EL6.1 ระบบที่ติดตั้งในตอนแรกพร้อมกับ EL6.2 + มีพฤติกรรมเหมือนกัน แสดงการแกว่งแบบไวด์ในการใช้งานดิสก์บนพาร์ติชัน XFS (ดูบรรทัดสีน้ำเงินในกราฟด้านล่าง) ก่อนและหลัง. การอัปเกรดจาก 6.1 เป็น 6.2 เกิดขึ้นในวันเสาร์ กราฟการใช้ดิสก์ของไตรมาสที่ผ่านมาของระบบเดียวกันซึ่งแสดงความผันผวนในสัปดาห์ที่ผ่านมา ฉันเริ่มตรวจสอบระบบไฟล์สำหรับไฟล์ขนาดใหญ่และกระบวนการที่ควบคุมไม่ได้ (ล็อกไฟล์อาจ?) ผมค้นพบว่าไฟล์ที่ใหญ่ที่สุดของฉันถูกรายงานค่าที่แตกต่างจากและdu lsการรันduด้วยและไม่มี--apparent-sizeสวิตช์แสดงให้เห็นถึงความแตกต่าง # du -skh SOD0005.TXT 29G SOD0005.TXT # du -skh --apparent-size SOD0005.TXT 21G …

12
ZFS กับ XFS
เรากำลังพิจารณาที่จะสร้างเซิร์ฟเวอร์จัดเก็บข้อมูลขนาด ~ 16TB ในขณะนี้เรากำลังพิจารณาทั้ง ZFS และ XFS เป็นระบบไฟล์ ข้อดีข้อเสียคืออะไร? เราต้องมองหาอะไร มีตัวเลือกที่สามที่ดีกว่าหรือไม่?
62 filesystems  storage  zfs  xfs 

5
วิธีลดขนาด / โฮมและเพิ่มพื้นที่ว่างบน CentOS7
CentOS 7ระบบไฟล์คือXFSและresize2fsไม่ทำงาน ฉันต้องการที่จะหดตัวลง/homeไป 400 กรัมและเพิ่มพื้นที่ 100G /ไป ฉันควรทำอย่างไร? # df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 50G 341M 100% / devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 7.8G 84K 7.8G 1% /dev/shm tmpfs 7.8G 778M 7.0G 10% /run tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup /dev/sda1 497M …

3
ระบบไฟล์ XFS เสียใน RHEL / CentOS 6.x - ฉันต้องทำอย่างไร
เวอร์ชันล่าสุดของ RHEL / CentOS (EL6) นำการเปลี่ยนแปลงที่น่าสนใจมาสู่ระบบไฟล์ XFS ที่ฉันต้องพึ่งพาอย่างมากมานานกว่าทศวรรษ ฉันใช้เวลาส่วนหนึ่งในช่วงฤดูร้อนที่ผ่านมาไล่ตามสถานการณ์ไฟล์ XFS กระจัดกระจายซึ่งเป็นผลมาจากแบ็คเคอร์เนลที่มีเอกสารไม่ดี คนอื่นประสบปัญหาประสิทธิภาพการทำงานที่โชคร้ายหรือมีพฤติกรรมที่ไม่สอดคล้องกันตั้งแต่ย้ายมาที่ EL6 XFS เป็นระบบไฟล์เริ่มต้นของฉันสำหรับข้อมูลและพาร์ติชันการเจริญเติบโตเนื่องจากมีเสถียรภาพความสามารถในการปรับขนาดและเพิ่มประสิทธิภาพที่ดีกว่าระบบไฟล์ ext3 เริ่มต้น มีปัญหากับ XFS ในระบบ EL6 ที่โผล่ขึ้นมาในเดือนพฤศจิกายน 2012 ฉันสังเกตเห็นว่าเซิร์ฟเวอร์ของฉันแสดงระบบที่โหลดสูงผิดปกติแม้ในขณะที่ไม่ได้ใช้งาน ในกรณีหนึ่งระบบที่ไม่โหลดจะแสดงค่าเฉลี่ยการโหลดอย่างต่อเนื่องที่ 3+ ในคนอื่น ๆ มีการโหลด 1+ ครั้ง จำนวนระบบไฟล์ XFS ที่เมาท์ดูเหมือนจะมีผลต่อความรุนแรงของการเพิ่มโหลด ระบบมีระบบไฟล์ XFS ที่ใช้งานอยู่สองระบบ โหลดเป็น +2 หลังจากอัปเกรดเป็นเคอร์เนลที่ได้รับผลกระทบ ขุดลึกลงไปผมพบว่าไม่กี่กระทู้บนXFS รายชื่อผู้รับจดหมายที่ชี้ไปยังความถี่ที่เพิ่มขึ้นของxfsaildขั้นตอนการนั่งอยู่ในSTAT Dรัฐ CentOS Bug Tracker ที่สอดคล้องกันและรายการRed Hat Bugzillaจะร่างรายละเอียดเฉพาะของปัญหาและสรุปว่านี่ไม่ใช่ปัญหาด้านประสิทธิภาพ เพียง …

1
ไม่สามารถสร้างไฟล์บนระบบไฟล์ XFS ขนาดใหญ่
เรามีเซิร์ฟเวอร์ Linux ที่มีระบบไฟล์ 4 TB ซึ่งใช้ในการจัดเก็บคลังข้อมูลการโค่นล้ม มีที่เก็บหลายแห่งซึ่งหลายแห่งใช้งานมาหลายปีแล้ว เดิมทีดิสก์นั้นมีขนาดประมาณ 1 TB แต่เราเริ่มใช้พื้นที่ไม่เพียงพอและเพิ่มเป็น 4 TB เมื่อประมาณหนึ่งปีที่แล้ว ตอนนี้ผู้คนกำลังรายงานว่าไม่สามารถเช็คอินไฟล์ไปยัง repos ของพวกเขาได้ No space left on deviceเกิดข้อผิดพลาดคือ ดิสก์นั้นมีความจุประมาณ 1.5 TB และยังรายงานว่ามี inodes ฟรีและยังไม่สามารถสร้างไฟล์ใหม่ได้ ยังคงเป็นไปได้ที่จะอัปเดตไฟล์เก่าและที่เก็บบางส่วนจะได้รับการปรับปรุงเป็นระยะ แต่ที่เก็บเดียวกันอาจล้มเหลวในความพยายามครั้งต่อไป
24 linux  xfs 

2
ขนาดไฟล์ที่แปลกมาก (มากกว่า 600 PB) บนระบบไฟล์ขนาดเล็ก
ฉันมีไฟล์ในระบบไฟล์ XFS ซึ่งมีขนาดประมาณ 200 GB มันเป็นอิมเมจ QCOW2 ที่มีดิสก์เสมือนของเครื่องเสมือนที่ขับเคลื่อนด้วย KVM มีบางอย่างผิดพลาด (อาจเป็นข้อผิดพลาดของ qemu-kvm ฉันไม่แน่ใจ) เครื่องเสมือนขัดข้องและตอนนี้ฉันมีไฟล์ที่มีลักษณะดังนี้: 191090708 -rwxr--r--. 1 root root 737571587400425984 Oct 10 10:03 973d10e0-a5e3-4a59-9f98-4b9b9f072ade ดังนั้นมันยังคงครองบล็อก 191090708 แต่lsแสดงว่าเป็น 656 เพตาไบต์ นอกจากนี้ฉันมีไฟล์อื่นที่มีประวัติก่อนหน้าเหมือนกัน แต่อยู่ในระบบไฟล์อื่น (ไม่ใช่ XFS แต่เป็น GFS2): 410855320 -rwxr--r--. 1 root root 7493992262336241664 Dec 13 2014 ac2cb28f-09ac-4ca0-bde1-471e0c7276a0 มันครอบครองบล็อก 410855320 แต่lsแสดงว่าเป็น ~ 6.6 …

2
ระบบไฟล์ XFS ที่สร้างขึ้นใหม่แสดงให้เห็นว่าใช้ 78 GB
เรามีอาร์เรย์ขนาด 12 TB RAID 6 ซึ่งควรจะตั้งค่าเป็นพาร์ติชันเดียวที่มีระบบไฟล์XFS ในการสร้างระบบไฟล์ใหม่มันบอกว่ามันมีการใช้งาน 78 GB แต่ไม่มีไฟล์ในไดรฟ์ [root@i00a ~]# df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 32G 0 32G 0% /dev tmpfs 32G 0 32G 0% /dev/shm tmpfs 32G 11M 32G 1% /run tmpfs 32G 0 32G 0% /sys/fs/cgroup /dev/sdb3 154G 3.9G 150G 3% …
18 storage  partition  xfs  rhel8 

1
สาเหตุของการแตกแฟรกเมนต์บนเซิร์ฟเวอร์“ ใหญ่” ที่มี xfs, 20 ดิสก์และ Ceph
ข้อมูลเชิงลึกจากผู้ที่มีประสบการณ์เล็กน้อยในระบบ linux IO จะเป็นประโยชน์ นี่คือเรื่องราวของฉัน: เมื่อเร็ว ๆ นี้นำคลัสเตอร์ Dell PowerEdge rx720xds หกตัวมาให้บริการไฟล์ผ่าน Ceph เครื่องเหล่านี้มี 24 คอร์ในสองซ็อกเก็ตที่มีสองโซน numa และ 70 กิกะไบต์หน่วยความจำคี่ ดิสก์ถูกฟอร์แมตเป็นการบุกค้นของดิสก์หนึ่งแผ่น (เราไม่เห็นวิธีเปิดเผยโดยตรง) เครือข่ายให้บริการโดย mellanox infiniband IP ผ่าน IB (แพ็คเก็ต IP กลายเป็น IB ในเคอร์เนลที่ดินไม่ใช่ฮาร์ดแวร์) เราได้ติดตั้งไดรฟ์ SAS แต่ละตัวไว้ดังนี้: # cat /proc/mounts | grep osd /dev/sdm1 /var/lib/ceph/osd/ceph-90 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdj1 /var/lib/ceph/osd/ceph-87 …

2
วิธีที่เหมาะสมในการจัดการกับระบบไฟล์ XFS ที่เสียหาย
ฉันเพิ่งมีระบบไฟล์ XFS เสียหายเนื่องจาก powerfail (ระบบ CentOS 7) ระบบไม่สามารถบู๊ตได้อย่างถูกต้อง ฉันบูตจากซีดีช่วยเหลือและพยายามxfs_repairบอกให้ฉันติดตั้งพาร์ติชันเพื่อจัดการกับบันทึก ฉันติดตั้งพาร์ติชันและทำการlsตรวจสอบว่าใช่ดูเหมือนว่าอยู่ที่นั่น ฉัน unmounted พาร์ติชันและลองxfs_repairอีกครั้งและได้รับข้อความเดียวกัน ฉันควรทำอย่างไรในสถานการณ์เช่นนี้? มีสิ่งผิดปกติเกิดขึ้นกับซีดีกู้คืนของฉัน (System Rescue CD, รุ่น 4.7.1) หรือไม่ มีขั้นตอนอื่นที่ฉันควรใช้หรือไม่ ฉันลงเอยด้วยการกู้คืนระบบจากการสำรองข้อมูล (มันง่ายและรวดเร็วในกรณีนี้) แต่ฉันอยากรู้ว่าต้องทำอะไรในอนาคต

2
GPT จำเป็นต้องใช้กับดิสก์ข้อมูลขนาด 16 TB หรือไม่?
ฉันทำ/dev/sdbซึ่งเป็นดิสก์ 16 TB โดยใช้ RAID ฮาร์ดแวร์ที่ฉันถูก temped เพื่อวาง XFS โดยตรง/dev/sdbโดยไม่ต้องทำพาร์ทิชัน ในอนาคตฉันจะต้องขยายให้ใหญ่ขึ้นเป็นสองเท่า ฮาร์ดแวร์คือ HP ProLiant DL380 Gen 9 พร้อมถาดดิสก์ 12 SAS ด้านหน้า ข้อดีอย่างหนึ่งของการไม่สร้างพาร์ติชั่นคือไม่จำเป็นต้องรีบู๊ต แต่สิ่งต่าง ๆ บนดิสก์ 2 TB? ฉันจำเป็นต้องมี GPT หรือไม่หรือมีปัญหาเมื่อขยายอาร์เรย์ RAID และ XFS โดยไม่มี
17 linux  raid  hp  xfs  gpt 

2
ระบบไฟล์พร้อมการผลิตที่เชื่อถือได้สูงบน Linux: ext4 ext3 XFS หรือ JFS (หรือ ZFS)?
คำถามจริงสุดท้ายที่ฉันเห็นในหัวข้อนี้มาจากประมาณสองปีที่ผ่านมา ( พร้อม ext4 สำหรับการใช้งานจริง ) ในช่วงเวลาแทรกแซงext4ได้รับการปรับปรุงอย่างไร XFS , JFSและext3เป็นตัวเลือกที่เชื่อถือได้แบบสแตนด์บาย ฉันเพิ่งใช้ ext4 กับสภาพแวดล้อมการทดสอบ / dev ล่าสุดของ Ubuntu และไม่เห็นปัญหาใด ๆ - แต่พวกเขายังใช้เวิร์กสเตชัน, VMs และการฝึกอบรมที่ใช้งานง่าย ext4 stack ขึ้นมาได้อย่างไรในขณะนี้ถึงเวลา [บาง] ในการพัฒนา vs XFS และ JFS (โดยเฉพาะ) จากจุดยืนความเร็วและความน่าเชื่อถือ คือZFSตัวเลือกที่ทำงาน (เห็นเป็นมันเป็นฟิวส์ โมดูลอาจจะไม่ได้สำหรับลินุกซ์ - ยัง)?
16 filesystems  ext3  ext4  xfs  jfs 

2
ตรวจสอบว่าพาร์ทิชันถูกจัดตำแหน่งใน Linux ด้วย RAID และ LVM
ไม่มีใครรู้ขั้นตอนในการตรวจสอบว่าระบบไฟล์ XFS ที่ด้านบนของ LVM และ md RAID นั้นได้รับการจัดตำแหน่งอย่างเหมาะสมในอาร์เรย์ 4096 ไบต์หรือที่รู้จักกันว่าดิสก์เซ็กเตอร์"รูปแบบขั้นสูง"หรือไม่ อ้างอิงบางอย่างคือ: http://www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning -filesystems ต่อการใช้ SSDs-ลบบล็อกขนาด / บริบทของคำถามนี้เกี่ยวกับ NAS ใหม่ของ Stack Overflow: http://blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
15 linux  raid  partition  mdadm  xfs 

2
HP DL380p Gen8 (คอนโทรลเลอร์ p420i) ความแปลกประหลาดของ I / O บนพาร์ติชัน XFS
บนเซิร์ฟเวอร์ DL380p Gen8 ที่ใช้ XFS ด้านบนของ LVM ด้านบนของการจู่โจม 1 + 0 ที่มีดิสก์ 6 แผ่นเวิร์กโหลดที่เหมือนกันส่งผลให้ปริมาณการเขียนดิสก์บน RHEL เพิ่มขึ้นสิบเท่าเมื่อเทียบกับ RHEL 5 ทำให้แอปพลิเคชันใช้งานไม่ได้ โปรดทราบว่าฉันไม่ได้มองหาการเพิ่มประสิทธิภาพของระบบ co6 ให้มากที่สุดเท่าที่จะเป็นไปได้ แต่ในการทำความเข้าใจว่าทำไม co6 จึงมีพฤติกรรมที่แตกต่างกันอย่างมากและการแก้ปัญหานั้น vmstat / iostat เรามีการตั้งค่าการจำลองแบบ MySQL โดยใช้ mysql 5.5 Mysql slaves บนเซิร์ฟเวอร์ Gen8 ที่ใช้ RHEL 6 ในขณะที่ระบบปฏิบัติการทำงานได้ไม่ดีการตรวจสอบด้วย vmstat และ iostat แสดงให้เห็นว่าเซิร์ฟเวอร์เหล่านี้ทำกิจกรรมออกหน้าสิบครั้งและปริมาณการเขียนไปยังระบบย่อยของดิสก์สิบเท่า blktrace แสดงว่าการเขียนเหล่านี้ไม่ได้เริ่มต้นโดย mysql แต่โดยเคอร์เนล Centos …

2
ผลกระทบด้านประสิทธิภาพของการรันระบบไฟล์ที่แตกต่างกันบนเซิร์ฟเวอร์ Linux เดียว
หนังสือ"HBase: คู่มือที่ชัดเจน"ระบุว่า ไม่แนะนำให้ติดตั้งระบบไฟล์ที่แตกต่างกันบนเซิร์ฟเวอร์เดียว สิ่งนี้อาจมีผลเสียต่อประสิทธิภาพเนื่องจากเคอร์เนลอาจต้องแบ่งแคชบัฟเฟอร์เพื่อสนับสนุนระบบไฟล์ที่แตกต่างกัน มีรายงานว่าในบางระบบปฏิบัติการอาจมีผลกระทบต่อประสิทธิภาพการทำลายล้างสูง สิ่งนี้นำไปใช้กับ Linux ได้จริงหรือ ฉันไม่เคยเห็นบัฟเฟอร์แคชที่ใหญ่กว่า 300 Mbytes และเซิร์ฟเวอร์ที่ทันสมัยส่วนใหญ่มี RAM กิกะไบต์ดังนั้นการแบ่งบัฟเฟอร์แคชระหว่างระบบไฟล์ที่แตกต่างกันไม่ควรเป็นปัญหา ฉันหายไปอย่างอื่นหรือไม่

1
ง่ายต่อการขยายซอฟต์แวร์ Linux RAID 5 พร้อม XFS ปฏิบัติที่ดีที่สุด?
ฉันใช้เครื่อง Ubuntu ของฉันเป็นเซิร์ฟเวอร์ไฟล์สำหรับไคลเอนต์ Windows / Linux / Mac โดยใช้ Samba ฉันต้องการที่จะขยายได้อย่างง่ายดายเพียงแค่เพิ่มฮาร์ดไดรฟ์มากขึ้นโดยไม่ต้องย้ายข้อมูลไปมา นี่คือสิ่งที่ฉันได้ทำไปแล้ว ฉันเพิ่มฮาร์ดไดรฟ์ตัวที่สี่สำเร็จแล้ว ตอนนี้จะเป็นการดีที่ได้ทราบว่าวิธีนี้ควรทำอย่างไร? สิ่งที่ฉันทำผิดหรือสิ่งที่ฉันสามารถทำได้ดีกว่า การสร้างอาเรย์ 3 ไดรฟ์เริ่มต้น ฉันเริ่มต้นด้วยสามไดรฟ์ที่ว่างเปล่า: / dev / sdb, / dev / sdc และ / dev / sdd ครั้งแรกที่ฉันสร้างพาร์ทิชันที่ว่างเปล่าให้กับไดรฟ์ทั้งหมด: $ fdisk /dev/sdX n # Create a new partition p # Primary 1 # First partition [enter] …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.