คำถามติดแท็ก nfs

Network File System (NFS) เป็นโปรโตคอลระบบไฟล์เครือข่ายที่พัฒนาโดยระบบ Sun Micro ในปี 1984 ทำให้ผู้ใช้ในคอมพิวเตอร์ไคลเอนต์สามารถเข้าถึงไฟล์ผ่านเครือข่ายในลักษณะที่คล้ายคลึงกับวิธีการเข้าถึงที่เก็บข้อมูลในเครื่อง NFS เช่นเดียวกับโปรโตคอลอื่น ๆ มากมายสร้างขึ้นบนระบบ Open Network Computing Remote Procedure Call (ONC RPC) Network File System เป็นมาตรฐานแบบเปิดที่กำหนดไว้ใน RFC

1
ไม่สามารถเขียนไปยังจุดเมานต์ (เซิร์ฟเวอร์ nfs) ได้รับ“ สิทธิ์ที่ถูกปฏิเสธ”
ฉันพยายามกำหนดค่าNFSระหว่างสองโหนด RHEL7: โหนดแรก: [root@ip-10-164-175-246 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 7.0 (Maipo) [root@ip-10-164-175-246 ~]# rpm -q nfs-utils nfs-utils-1.3.0-0.el7.x86_64 [root@ip-10-164-175-246 ~]# cat /etc/exports /var/www/html/ ip-10-184-161-46.ec2.internal(rw) [root@ip-10-164-175-246 ~]# โหนดที่สอง: [root@ip-10-184-161-46 ~]# mount ip-10-164-175-246.ec2.internal:/var/www/html/ /mnt/ [root@ip-10-184-161-46 ~]# touch /mnt/$$ touch: cannot touch ‘/mnt/3326’: Permission denied [root@ip-10-184-161-46 ~]# เหตุใดฉันจึงไม่สามารถเขียนอะไรไปยัง/mnt/NFS ได้
21 nfs 

3
NFS ประสิทธิภาพการเขียนไม่ดี
ฉันมีสองเครื่องเชื่อมต่อกับ 10Gbit Ethernet ให้หนึ่งในนั้นคือเซิร์ฟเวอร์ NFS และอีกอันจะเป็นไคลเอนต์ NFs การทดสอบความเร็วของเครือข่ายผ่าน TCP ด้วยการiperfแสดงปริมาณข้อมูลที่ ~ 9.8 Gbit / s ในทั้งสองทิศทางดังนั้นเครือข่ายจึงใช้ได้ ทดสอบประสิทธิภาพดิสก์ของเซิร์ฟเวอร์ NFS: dd if=/dev/zero of=/mnt/test/rnd2 count=1000000 ผลลัพธ์คือ ~ 150 MBytes / s ดังนั้นดิสก์จึงทำงานได้ดีสำหรับการเขียน เซิร์ฟเวอร์/etc/exportsคือ: /mnt/test 192.168.1.0/24(rw,no_root_squash,insecure,sync,no_subtree_check) ไคลเอนต์เมาท์การแชร์นี้เป็นภายในเครื่อง/mnt/testด้วยตัวเลือกต่อไปนี้: node02:~ # mount | grep nfs 192.168.1.101:/mnt/test on /mnt/test type nfs4 (rw,relatime,sync,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.102,local_lock=none,addr=192.168.1.101) หากฉันพยายามดาวน์โหลดไฟล์ขนาดใหญ่ (~ 5Gb) บนเครื่องไคลเอ็นต์จากการแชร์ NFS …

4
Systemd: เริ่มหน่วยหลังจากหน่วยอื่นเริ่มต้นจริงๆ
ในกรณีเฉพาะของฉันฉันต้องการเริ่มremote-fsหน่วยหลังจากทั้งหมดglusterfsเริ่มต้นอย่างสมบูรณ์ ไฟล์ systemd ของฉัน: glusterfs กำหนดเป้าหมาย: node04:/usr/lib/systemd/system # cat glusterfsd.service [Unit] Description=GlusterFS brick processes (stopping only) After=network.target glusterd.service [Service] Type=oneshot ExecStart=/bin/true RemainAfterExit=yes ExecStop=/bin/sh -c "/bin/killall --wait glusterfsd || /bin/true" ExecReload=/bin/sh -c "/bin/killall -HUP glusterfsd || /bin/true" [Install] WantedBy=multi-user.target remote-fs กำหนดเป้าหมาย: node04:/usr/lib/systemd/system # cat remote-fs.target [Unit] Description=Remote File Systems Documentation=man:systemd.special(7) Requires=glusterfsd.service …
20 nfs  glusterfs  systemd 

2
วัดและกำหนดมาตรฐานความเร็วและเวลาแฝงของการเข้าถึงไฟล์บนการแชร์ NFS ที่เมาท์
ฉันมีระบบ Linux Centos ที่ติดตั้ง NFS บางตัวฉันจะใช้เทคนิคใดในการวัดความเร็ว / ความหน่วงแฝง / อัตรา I / O เมื่ออ่านและเขียนไฟล์จากการแชร์นั้น สามารถใช้เทคนิคนี้กับฮาร์ดไดรฟ์ภายในเพื่อเปรียบเทียบได้หรือไม่
19 performance  nfs 

2
เครื่องมือที่ไม่รู้จักกำลังเช็ดเครื่องเสมือนของเราและเราไม่สามารถระบุได้
มุมมองคอนโซลของ Windows 2008 R2 VM บน vSphere กำลังแสดงหน้าจอต่อไปนี้: "การทำงาน 2 จาก 2" "การล้างดิสก์" มีคนแนะนำได้ไหมว่าโปรแกรมนี้คืออะไร? ข้อมูลบางส่วนเกี่ยวกับความลึกลับนี้: ตอนนี้จำนวนของ VMs ได้รับผลกระทบ อาการคือหลังจากข้อความ "ไม่พบระบบปฏิบัติการ" รีบูตปรากฏขึ้น VM นั้นใช้ ESXi อยู่ VM กำลังทำงานบนดาต้าสโตร์เฉพาะ Netapp NFS การติดตั้งดิสก์ในกล่องใช้งานไม่แสดงตารางพาร์ติชันยังไม่สามารถถ่ายโอนข้อมูล hex ได้ VM ไม่ใช่การรีเซ็ตยากจะต้องเป็นซอฟต์รีเซ็ตที่เริ่มต้นโดยระบบปฏิบัติการ ไม่มีการเมานต์ iso ไม่มีการเข้าถึง "ที่ไม่ใช่แขก" กับ VM ดังนั้นจะต้องเป็น RDP หรือคล้ายกัน ทำการสำรองข้อมูลโดยใช้ซอฟต์แวร์สำรองข้อมูลของ netapp ข้ามคืน NFS ที่สงสัยจะถูกจัดสรรแบบ thin ในส่วนแบ็คเอนด์ …

4
เหตุใดเซิร์ฟเวอร์ nfs จึงถูกเมาท์เนื่องจาก rw ส่งคืนข้อผิดพลาดระบบไฟล์แบบอ่านอย่างเดียว
ฉันทำงานบน Ubuntu Server 64 บิต ฉันติดตั้ง nfs เป็น rw แต่เมื่อใดก็ตามที่ฉันพยายามแก้ไขอะไรก็ตามบน mountpoint ที่เป็นปัญหาฉันจะได้รับข้อผิดพลาดของระบบไฟล์แบบอ่านอย่างเดียว etc/fstabอ่านของฉัน: # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc nodev,noexec,nosuid 0 0 /dev/mapper/product-root / ext4 errors=remount-ro 0 1 UUID=1cae6948-ca9d-4f0b-aec6-9e7a60bbbad8 /boot ext2 defaults 0 2 /dev/mapper/product-swap_1 none swap sw 0 0 /dev/fd0 /media/floppy0 auto rw,user,noauto,exec,utf8 …

4
ล็อคไฟล์ใน NFS หรือไม่
เซิร์ฟเวอร์ของฉันใช้ NFS (ระบบไฟล์เครือข่าย) และฉันไม่สามารถใช้ฟังก์ชั่น flock () ของ PHP ได้ มีวิธีล็อกไฟล์ใน NFS หรือไม่หรือจำเป็นต้องทำเช่นนั้น?

2
NFS และ SMB รองรับไฟล์แบบกระจายหรือไม่?
ก่อนหน้านี้คำถามนี้ถูกถามในการล้นสแต็ก แต่คนที่ดีมีแนะนำให้ฉันลองชุมชนที่นี่แทน ฉันกำลังค้นคว้าเกี่ยวกับไฟล์ที่กระจัดกระจายเกี่ยวกับระบบไฟล์ต่าง ๆ และกำลังพยายามค้นหาสิ่งที่เป็นรูปธรรมที่ระบุว่าไฟล์ sparse ได้รับการสนับสนุนโดย Network File Systems (NFS) หรือ Server Message Block (SMB) ฉันเข้าใจว่า SMB มีการใช้กันอย่างแพร่หลายใน Windows และตามรายการนี้เซิร์ฟเวอร์ SMB สามารถรองรับไฟล์แบบกระจายได้แม้ว่าระบบไฟล์พื้นฐานจะไม่ อย่างไรก็ตามถ้าฉันพูดถูกระบบไฟล์ที่ไม่รองรับไฟล์ที่กระจัดกระจายก็จะเติมเต็ม 'หลุม' ด้วยศูนย์และนี่อาจทำให้เกิดปัญหาประสิทธิภาพ ด้วยความนับถือ NFS ฉันไม่สามารถค้นหาอะไรเกี่ยวกับการใช้ NFS ที่สนับสนุนไฟล์แบบกระจาย ดังนั้นคำถามของฉันคือ รองรับไฟล์แบบกระจายใน NFS และ SMB หรือไม่

3
ฉันจะบังคับให้ unmount เมื่อฉันได้รับไฟล์ stale nfs ได้อย่างไร
เตรียมพร้อมตัวเองให้อยู่ในสถานการณ์ที่ยุ่งยาก ติดตั้ง aufs ที่ / mnt / 1 aufs on /mnt/1 type aufs (rw,relatime,si=daab1cec23213eea) ฉันไม่สามารถ unmount ได้: sudo umount -f /mnt/1 umount2: Stale NFS file handle umount: /mnt/1: Stale NFS file handle umount2: Stale NFS file handle umount2: Stale NFS file handle ฉันจะยกเลิกการต่อเชื่อมจุดเชื่อมต่อได้อย่างไร (โดยไม่ต้องรีบูตระบบ) (หมายเหตุ: aufs อยู่ด้านบนของระบบ openafs มากกว่า NFS)
17 linux  nfs  mount 

4
exportfs: คำเตือน: / home / user / share ไม่รองรับการส่งออก NFS
'exportfs -r' ส่งคืนข้อผิดพลาดนี้ให้ฉันเมื่อฉันพยายามส่งออก / home / user / share (ext4): exportfs: คำเตือน: / home / user / share ไม่รองรับการส่งออก NFS / etc / ส่งออก: / home / user / share 192.168.1.3 (rw, no_subtree_check) ระบบคือ Ubuntu 10.04 พร้อมแพ็คเกจ nfs-kernel-server ความคิดใด ๆ ว่าทำไมสิ่งนี้ถึงเกิดขึ้น? เป็นเพราะ ext4 หรือเปล่า?
16 nfs  export  ext4 

4
“ Stale NFS file handle” หลังจากรีบูต
บนโหนดเซิร์ฟเวอร์เป็นไปได้ที่จะเข้าถึงโฟลเดอร์ที่ส่งออก อย่างไรก็ตามหลังจากรีบูตเครื่อง (ทั้งเซิร์ฟเวอร์และไคลเอนต์) โฟลเดอร์จะไม่สามารถเข้าถึงได้จากไคลเอนต์ บนเซิร์ฟเวอร์ # ls /data Folder1 Forlder2 และไฟล์ / etc / exports มี /data 192.168.1.0/24(rw,no_subtree_check,async,no_root_squash) บนไคลเอนต์ # ls /data ls: cannot access /data: Stale NFS file handle ฉันต้องบอกว่าไม่มีปัญหากับโฟลเดอร์ที่แชร์จากฝั่งไคลเอ็นต์ แต่หลังจากรีบูตเครื่อง (เซิร์ฟเวอร์และไคลเอนต์) ฉันเห็นข้อความนี้ มีวิธีแก้ไขไหม?

3
NFS พร้อมโฮมไดเร็กทอรีของ ubuntu ที่เข้ารหัส
ฉันมีปัญหาในการติดตั้ง NFS กับคนจรจัด: บนเครื่องของฉันฉันได้ติดตั้ง NFS: apt-get install nfs-common nfs-kernel-server และใน Vagrantfile ของฉันตั้งค่าให้ใช้: config.vm.share_folder("v-root", "/vagrant", ".", :nfs => true) เมื่อvagrant upฉันได้รับ: exportfs: /home/<user>/path/to/dir does not support NFS export Mounting NFS shared folders failed. This is most often caused by the NFS client software not being installed on the guest machine. Please …

5
การเลือกเทคโนโลยี SAN สำหรับ VM Web Servers 100s
ปัญหา เรามีปัญหาเกี่ยวกับประสิทธิภาพการทำงานบนแพลตฟอร์มที่มีอยู่แล้วดังนั้นฉันจึงเปลี่ยนไปใช้ความคิดแบบกลุ่มเพื่อความเห็นที่สองเกี่ยวกับสิ่งนี้ ปัญหาด้านประสิทธิภาพนั้นเกี่ยวข้องกับ IOPS มากกว่าปริมาณงาน สถานการณ์ เบลดศูนย์กลาง 16 โฮสต์แต่ละตัวมี RAM 64GB (เป็น Dell M1000e w / M610s แต่อาจไม่เกี่ยวข้อง) 500 VMs เว็บเซิร์ฟเวอร์ทั้งหมด (หรือเทคโนโลยีเว็บที่เกี่ยวข้องเช่น MySQL, load balancer ฯลฯ ) ประมาณ 90% เป็น Linux และ Windows ที่เหลือ ไฮเปอร์ไวเซอร์คือ VMWare vSphere เราจำเป็นต้องจัดเตรียมโฮสต์ HA ดังนั้นที่เก็บข้อมูลในเครื่องจึงไม่พร้อมใช้งาน ดังนั้นโฮสต์จึงมีการ์ด SD สำหรับบูต พื้นหลังคิดเล็กน้อย ในขณะนี้เรามีโฮสต์ได้มากถึง 6 โฮสต์ (ศูนย์ใบมีดจะเต็มประสิทธิภาพในช่วงเวลาหนึ่งปีที่การเติบโตปัจจุบัน) และเรากำลังเรียกใช้ iSCSI …

2
วิธีตั้งค่าเซิร์ฟเวอร์ NFS ที่แคชเครือข่ายใช้ร่วมกันได้อย่างไร
ข้อมูลผู้ใช้จะถูกเก็บไว้ในสองกลุ่มที่มีขนาดค่อนข้างใหญ่ (> 1 PB) กลุ่มการจัดเก็บข้อมูล OpenStack Swift ขอให้เขาเป็นCluster Aและกลุ่ม B นอกจากนี้ยังมีPoPหลายตัวที่ต้องโต้ตอบกับข้อมูลนั้น เซิร์ฟเวอร์ใน PoP เหล่านี้ไม่มีดิสก์อย่างมีประสิทธิภาพซึ่งหมายความว่าไม่มีการจัดเก็บข้อมูลผู้ใช้ไว้ในเครื่องหรือดาวน์โหลดไปยังพวกเขา PoPs สามารถแบ่งออกเป็นภูมิภาคทั่วโลก(เช่นอเมริกาเหนือ , แอฟริกาใต้ , ยุโรปกลางและคณะ) PoPs บางตัวอยู่ค่อนข้างไกลจากจุดปลายทางสวิฟต์ของกลุ่มใด ๆ แนะนำความล่าช้าที่ไม่พึงประสงค์ เพื่อบรรเทาปัญหานี้ฉันต้องการตั้งค่าเซิร์ฟเวอร์เกตเวย์แคชในแต่ละภูมิภาคซึ่งจะแคชคำขอ r / w ไปยังคลัสเตอร์ที่ใกล้ที่สุด ปัจจุบันลูกค้าใน PoP ใด ๆ สามารถเข้าถึงข้อมูลผู้ใช้โดยระบบไฟล์เสมือน swift ที่ติดตั้งถาวรซึ่งเป็นโมดูล FUSE ที่เมาท์ Swift Object Storage เป็นอุปกรณ์บล็อก (มากหรือน้อย) อย่างไรก็ตาม svfs นั้นไม่เสถียรเท่าที่ควรและในอนาคตลูกค้าควรเข้าถึงแคชเซิร์ฟเวอร์ผ่าน NFS นี่คือแผนภาพของสาขาหนึ่งของสถาปัตยกรรมที่ต้องการ: +------------------+ +------------------+ …

1
เมานต์ไดรฟ์ NFS บนเซิร์ฟเวอร์ Ubuntu Linux จากไคลเอนต์ macOS
ฉันมีเซิร์ฟเวอร์ Ubuntu 14.04 LTS (VM ท้องถิ่นในกรณีของฉัน) ฉันจะเมาท์ไดเร็กทอรีบนเซิร์ฟเวอร์ Linux จากไคลเอ็นต์ Mac OS X Yosemite โดยใช้ NFS ได้อย่างไร

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.