วิธีถอดรหัสขีด จำกัด 1 Gbit iSCSI ระหว่าง ESXi และ VNXe


15

ฉันมีปัญหาใหญ่กับเครือข่าย iSCSI ของฉันและดูเหมือนจะไม่สามารถทำงานได้เร็วเท่าที่จะทำได้

ดังนั้นฉันจึงพยายามทำทุกอย่างเพื่อให้ได้ประสิทธิภาพสูงสุดจาก SAN โดยมีผู้เชี่ยวชาญที่เกี่ยวข้องกับ VMware และ EMC

คำอธิบายสั้น ๆ เกี่ยวกับอุปกรณ์ของฉัน: 3x HP DL360 G7 / vSphere 5.5 / 4 ออนบอร์ด NICs / 4 PCIe Intel NICs สำหรับ iSCSI 2x HP 2510-24G 1x EMC VNXe 3100/2 โปรเซสเซอร์หน่วยประมวลผล 2 iSCSI โดยเฉพาะ / 6x 7.2k SAS RAID6

ฉันใช้แนวปฏิบัติที่ดีที่สุดและวางพูลของหน่วยความจำให้เท่ากันทั้ง iSCSI-Servers ฉันสร้างเซิร์ฟเวอร์ iSCSI 2 ตัวโดยหนึ่งตัวต่อตัวประมวลผลหน่วยความจำแต่ละตัว โปรดดูภาพสำหรับการกำหนดค่า iSCSI ของฉัน

การกำหนดค่า iSCSI

การรับส่งข้อมูล iSCSI ถูกแยกผ่าน VLAN (ห้ามตั้งค่าสำหรับ VLAN อื่น ๆ ) ฉันยังลองใช้กับสวิตช์ HP อีกรุ่นหนึ่งของซีรีย์ 29xx เปิดใช้งานการควบคุมการไหล (พยายามปิดใช้งาน), จัมโบ้ถูกปิดการใช้งาน ไม่มีการกำหนดเส้นทางที่เกี่ยวข้อง

ใน ESX โฮสต์ iSCSI NIC ทั้งหมดจะถูกใช้เมื่อฉันใช้การตั้งค่า Round Robin สำหรับทุก datastore ฉันยังลองใช้กับนโยบายการเปลี่ยนเส้นทางของ 1 IO เนื่องจากดูเหมือนว่าคนอื่น ๆ จะได้รับประสิทธิภาพที่ดีขึ้น ฉันลองใช้ NIC ภายในด้วย (Broadcom) แต่ก็ไม่มีความแตกต่าง บนสวิตช์ฉันเห็นว่ามีการใช้พอร์ตเท่า ๆ กันด้าน ESX และด้าน VNXe ฉันมีสมดุลการโหลดที่สมบูรณ์แบบอย่างไร: ฉันไม่สามารถผ่านมา 1 Gbit รวมได้ ฉันเข้าใจว่า VNXe เหมาะสำหรับการเชื่อมต่อหลายจุดและ Round Robin ก็ต้องการเช่นกัน แต่ถึงแม้ว่าฉันจะจัดเก็บ vMotion ระหว่าง 2 โฮสต์และ 2 ดาต้าสโตร์ (โดยใช้เซิร์ฟเวอร์ iSCSI ที่แตกต่างกัน) ฉันสามารถเห็นเส้นตรงประมาณ 84 MBit / s ผ่าน Uninterhere webinterface ฉันเห็นบรรทัดนั้นบ่อยครั้งที่ค่าเดียวกันกับที่ฉันไม่สามารถเชื่อดิสก์ของฉันได้ ส่งมอบงานมากขึ้นหรืองานไม่เพียงพอ มันจะดีขึ้นกว่าเดิม: ด้วยสายเคเบิลเพียงเส้นเดียวในแต่ละโฮสต์และตัวประมวลผลหน่วยความจำแต่ละตัวฉันจะได้รับประสิทธิภาพเดียวกัน ดังนั้นฉันจึงมีความซ้ำซ้อนมาก แต่ไม่มีความเร็วเพิ่มเลย

ตามที่ฉันเห็นบางคนพูดถึงประสิทธิภาพของ iSCSI ฉันหวังว่าจะพบว่ามีอะไรผิดปกติกับการกำหนดค่าของฉัน (ซึ่งผ่านการทดสอบและตรวจสอบโดยผู้ที่ได้รับการฝึกอบรมจาก VMware และ EMC) ฉันขอบคุณสำหรับทุกความคิดเห็น!

แก้ไข:

ใช่ฉันได้กำหนดค่า vMotion ให้ใช้ NIC หลายตัว นอกจากนั้น vMotion หน่วยเก็บข้อมูลนั้นจะต้องผ่านอะแดปเตอร์ iSCSI เสมอไม่ใช่อะแดปเตอร์ vMotion ฉันได้แนบภาพหน้าจอของการกำหนดค่าของฉัน

การผูกพอร์ต iSCSI

จุดหมายปลายทางของ iSCSI

เส้นทาง iSCSI

ฉันรู้ว่า vMotion สำหรับการจัดเก็บไม่ใช่มาตรฐาน แต่ฉันต้องทำสิ่งนี้มากในช่วงไม่กี่วันที่ผ่านมาและขีด จำกัด บนจะอยู่ที่ประมาณ 80 MB / s เสมอ พูลของ 6x 15k 600 GB SAS ดิสก์ใน RAID 10 ควรจะสามารถใส่ได้มากกว่านี้ทั้งหมดคุณคิดหรือไม่? ฉันทำการทดสอบ IO Meter ให้คุณ - ลองใช้งานได้เร็วที่สุดคืออ่านได้ 256 KiB 100% ฉันได้ 64.45 MB / s - Unisphere ของฉันแสดงความเร็วเดียวกันด้วย ที่อยู่ใน VM ที่เก็บไว้ในพูลของดิสก์ SAS ขนาด 6x 15k 300 GB (RAID 10) ซึ่งแทบจะไม่มีกิจกรรมอื่นใดในเวลานี้ของวัน

IO Meter

Unisphere

EDIT2:

ขออภัยชื่อผู้ใช้ซ้ำกัน แต่ฉันเขียนคำถามนี้ในที่ทำงานและไม่ได้ใช้ชื่อผู้ใช้ของฉันที่ฉันได้รับจาก Stock Overflow อย่างไรก็ตามนี่คือภาพหน้าจอที่แสดงการตั้งค่า Round Robin ของฉัน มันเหมือนกันในโฮสต์ทั้งหมดและร้านค้าทั้งหมด

Round Robin


ฉันไม่คิดว่ามีอะไรผิดปกติ คุณคาดหวังอะไร คุณกำหนดค่าmulti-NIC vMotion หรือไม่
ewwhite

3
การทำหน่วยเก็บข้อมูล vmotion ไม่ใช่เกณฑ์มาตรฐานสำหรับระบบหน่วยเก็บข้อมูลเนื่องจาก vmkernel ถูก จำกัด การใช้งาน I / O และ CPU คุณเคยลองเปรียบเทียบโดยใช้ iometer หรือไม่? ดิสก์ชนิดใดใน VNXe และการตั้งค่าประเภท RAID / พูลหน่วยเก็บข้อมูลชนิดใด
pauska

นอกจากนี้คุณสามารถโพสต์ภาพหน้าจอของ LUN "Manage path" ภายใน vSphere ได้หรือไม่?
pauska

คุณเข้าสู่ระบบด้วยผู้ใช้ที่แตกต่างจากที่คุณใช้ถามคำถามดังนั้นการแก้ไขของคุณติดอยู่ในคิว
pauska

ขอบคุณสำหรับภาพหน้าจอ แต่ก็ยังไม่ใช่ภาพที่ฉันขอ คลิกที่หนึ่งในโฮสต์ esxi ของคุณแท็บกำหนดค่าดาต้าสโตร์เลือกดาต้าสโตร์ที่คุณต้องการแก้ไขปัญหาและคลิกลิงก์ "คุณสมบัติ" ที่ด้านล่างขวา จากนั้นคลิกที่ "จัดการเส้นทาง" และส่งภาพหน้าจอของหน้าต่างนั้นมาให้เรา
pauska

คำตอบ:


1

เป็นไปได้ว่าคุณไม่ได้สร้าง IOPS มากพอสำหรับสิ่งนี้ในการเริ่มเล่น
ดูที่นี่เกี่ยวกับวิธีเปลี่ยนการตั้งค่าจากค่าเริ่มต้น 1'000 IOPS เป็นค่าที่น้อยลง (นี่คือสมมาตรเฉพาะ แต่คุณสามารถทำเช่นเดียวกันสำหรับผู้ให้บริการ Round Round ของ VMWare)

อย่างไรก็ตามฉันก็ยังไม่มั่นใจว่าจริงๆแล้วมันสามารถใช้ประโยชน์มากกว่าหนึ่งลิงก์โดยสิ้นเชิงพร้อม ๆ กันกับที่เก็บข้อมูลเดียว ฉันคิดว่าคุณต้องทำการทดสอบ IOMeter บนดาต้าสโตร์มากกว่าหนึ่งแห่งพร้อมกันเพื่อดูประโยชน์ (ไม่แน่ใจ 100%)


ตามที่ระบุไว้ในคำถามของฉันฉันได้ตั้งนโยบายการเปลี่ยนเส้นทางเป็น 1 แทน 1.000 - ไม่ได้เปลี่ยนแปลงมากนัก
Ryan Hardy

ฉันต้องมองข้ามส่วนนั้นขอโทษ
MichelZ

1

สร้างกฎ SATP สำหรับผู้ขายหน่วยเก็บข้อมูลชื่อ EMC ตั้งค่านโยบายเส้นทางเป็น Round Robine และ IOPS จากค่าเริ่มต้น 1,000 ถึง 1 ซึ่งจะคงอยู่ตลอดการบูตเครื่องและทุกครั้งที่มีการนำเสนอ EMC iSCSI LUNs กฎนี้จะถูกหยิบขึ้นมา เพื่อให้สิ่งนี้ใช้กับ EMC iSCSI LUNs ที่มีอยู่ให้รีบูตโฮสต์

esxcli storage nmp satp rule add --satp="VMW_SATP_DEFAULT_AA" \
  --vendor="EMC" -P "VMW_PSP_RR" -O "iops=1"

ฉันเล่นด้วยการเปลี่ยน IOPS ระหว่าง 1 - 3 และพบว่าทำงานได้ดีที่สุดบน VM เครื่องเดียว ที่กล่าวว่าหากคุณมี VM และดาต้าสโตร์จำนวนมาก 1 อาจไม่ดีที่สุด ...

ต้องแน่ใจว่าคุณมีแต่ละอินเตอร์เฟสบน VNXe ที่ตั้งค่าไว้ที่ 9000 MTU นอกจากนี้ vSwitch พร้อมอินเตอร์เฟส iSCSI ของคุณควรตั้งค่าเป็น 9000 MTU พร้อมกับแต่ละ VMKernel บน VNXe ของคุณสร้างเซิร์ฟเวอร์ iSCSI สองเครื่อง - หนึ่งเซิร์ฟเวอร์สำหรับ SPA และอีกเซิร์ฟเวอร์สำหรับ SPB เชื่อมโยงหนึ่ง IP สำหรับแต่ละเริ่มต้น จากนั้นดูรายละเอียดสำหรับแต่ละเซิร์ฟเวอร์ iSCSI และเพิ่ม IP เพิ่มเติมสำหรับแต่ละอินเตอร์เฟสที่ใช้งานต่อ SP สิ่งนี้จะทำให้คุณได้พบกับการแสดงรอบที่คุณกำลังมองหา

จากนั้นสร้างอย่างน้อยสองดาต้าสโตร์ เชื่อมโยงที่เก็บข้อมูลหนึ่งชุดกับ iSCSIServer-SPA และอีกชุดหนึ่งกับ iSCSIServer-SPB สิ่งนี้จะช่วยให้มั่นใจว่าหนึ่งใน SP ของคุณไม่ได้อยู่เฉยๆ

สุดท้ายอินเทอร์เฟซทั้งหมดในด้าน ESX ที่ใช้สำหรับ iSCSI ควรไปที่ vSwitch แยกต่างหากโดยมีอินเตอร์เฟสทั้งหมดเป็นแอ็คทีฟ อย่างไรก็ตามคุณจะต้องการ VMkernel สำหรับแต่ละอินเตอร์เฟสในด้าน ESX ภายใน vSwitch ที่กำหนดนั้น คุณต้องแทนที่ลำดับความล้มเหลว vSwitch สำหรับแต่ละ VMKernel เพื่อให้มีหนึ่งอะแดปเตอร์ที่ใช้งานอยู่และอื่น ๆ ทั้งหมดที่ไม่ได้ใช้ นี่คือสคริปต์การปรับใช้ของฉันที่ฉันใช้สำหรับการจัดสรรโฮสต์ ESX แต่ละโฮสต์มีอินเตอร์เฟสทั้งหมด 8 อินเตอร์เฟสคือ 4 สำหรับ LAN และ 4 สำหรับ iSCSI / VMotion traffic

  1. ดำเนินการกำหนดค่าด้านล่าง

# DNS esxcli เครือข่าย ip dns ค้นหาเพิ่ม --domain = mydomain.net

esxcli เครือข่าย ip เซิร์ฟเวอร์ DNS เพิ่ม --server = XXXX

esxcli เครือข่าย ip เซิร์ฟเวอร์ DNS เพิ่ม --server = XXXX

ข # set อัปเดตชื่อโฮสต์ตามนั้น

ชุดชื่อโฮสต์ระบบ esxcli --host = server1 --domain = mydomain.net

ค. # เพิ่มอัปลิงค์ไปยัง vSwitch0 เครือข่าย esxcli vswitch อัปลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic1 --vswitch-name = vSwitch0

เครือข่าย esxcli vswitch อัปอัพลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic4 --vswitch-name = vSwitch0

เครือข่าย esxcli vswitch อัปอัพลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic5 --vswitch-name = vSwitch0

d # create vSwitch1 สำหรับที่เก็บข้อมูลและตั้งค่า MTU เป็น 9000

เครือข่าย esxcli vswitch มาตรฐานเพิ่ม --vswitch-name = vSwitch1

เครือข่าย esxcli ชุดมาตรฐาน vswitch --vswitch-name = vSwitch1 --mtu = 9000

อี # เพิ่มอัปลิงค์ไปยัง vSwitch1

เครือข่าย esxcli vswitch อัปอัพลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic2 --vswitch-name = vSwitch1

เครือข่าย esxcli vswitch อัปอัพลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic3 --vswitch-name = vSwitch1

เครือข่าย esxcli vswitch อัปอัพลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic6 --vswitch-name = vSwitch1

เครือข่าย esxcli vswitch อัปอัพลิงค์มาตรฐานเพิ่ม --uplink-name = vmnic7 --vswitch-name = vSwitch1

ฉ # set ใช้งาน NIC สำหรับ vSwitch0

เครือข่าย esxcli vswitch ชุดนโยบายล้มเหลวมาตรฐาน --vswitch-name = vSwitch0 - ลิงก์ -active = vmnic0, vmnic1, vmnic4, vmnic5

ก. # set ใช้งาน NIC สำหรับ vSwitch1

เครือข่าย esxcli vswitch ชุดนโยบายล้มเหลวมาตรฐาน --vswitch-name = vSwitch1 - ลิงก์ -active = vmnic2, vmnic3, vmnic6, vmnic7

ชั่วโมง # สร้างกลุ่มพอร์ตสำหรับ iSCSI และ vmkernels สำหรับ ESX01 ไม่ใช่ ESX02

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic2 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม - อินเตอร์เฟซชื่อ = vmk2 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic2 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซชื่อ = vmk2 --ipv4 = 192.158.50.152 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk2

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic3 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม --interface-name = vmk3 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic3 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซ - ชื่อ = vmk3 --ipv4 = 192.158.50.153 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk3

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic6 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม --interface-name = vmk6 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic6 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเตอร์เฟซชื่อ = vmk6 --ipv4 = 192.158.50.156 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk6

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic7 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม --interface-name = vmk7 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic7 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซ - ชื่อ = vmk7 --ipv4 = 192.158.50.157 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk7

ผม. # สร้างกลุ่มพอร์ตสำหรับ iSCSI และ vmkernels สำหรับ ESX02 ไม่ใช่ ESX01

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic2 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม - อินเตอร์เฟซชื่อ = vmk2 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic2 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซ - ชื่อ = vmk2 --ipv4 = 192.168.50.162 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk2

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic3 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม --interface-name = vmk3 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic3 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซ - ชื่อ = vmk3 --ipv4 = 192.168.50.163 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk3

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic6 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม --interface-name = vmk6 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic6 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซ - ชื่อ = vmk6 --ipv4 = 192.168.50.166 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk6

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = iSCSI-vmnic7 --vswitch-name = vSwitch1

อินเตอร์เฟสเครือข่าย esxcli ip เพิ่ม --interface-name = vmk7 - พอร์ตชื่อกลุ่ม = iSCSI-vmnic7 --mtu = 9000

esxcli เครือข่ายส่วนต่อประสาน ip ชุด ipv4 - อินเทอร์เฟซ - ชื่อ = vmk7 --ipv4 = 192.168.50.167 --netmask = 255.255.255.0 - ประเภท = คงที่

vim-cmd hostsvc / vmotion / vnic_set vmk7

J # ตั้งค่า NIC ที่ใช้งานสำหรับแต่ละ iSCSI vmkernel

เครือข่าย esxcli vswitch ชุดพอร์ตล้มเหลวของนโยบายพอร์ตกลุ่มมาตรฐาน --portgroup-name = iSCSI-vmnic2 --active-uplinks = vmnic2

เครือข่าย esxcli vswitch ชุดพอร์ตล้มเหลวของนโยบายพอร์ตกลุ่มมาตรฐาน --portgroup-name = iSCSI-vmnic3 --active-uplinks = vmnic3

เครือข่าย esxcli vswitch ชุดพอร์ตล้มเหลวของนโยบายพอร์ตกลุ่มมาตรฐาน --portgroup-name = iSCSI-vmnic6 --active-uplinks = vmnic6

เครือข่าย esxcli vswitch ชุดพอร์ตล้มเหลวของนโยบายพอร์ตกลุ่มมาตรฐาน --portgroup-name = iSCSI-vmnic7 --active-uplinks = vmnic7

k # สร้างกลุ่มพอร์ต

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = VMNetwork1 --vswitch-name = vSwitch0

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = VMNetwork2 --vswitch-name = vSwitch0

เครือข่าย esxcli vswitch มาตรฐานเพิ่มกลุ่มพอร์ต --portgroup-name = VMNetwork3 --vswitch-name = vSwitch0

ล. # set VLAN เป็นกลุ่มพอร์ต VM

เครือข่าย esxcli vswitch ชุดพอร์ตมาตรฐานกลุ่ม -p VMNetwork1 --vlan-id ##

เครือข่าย esxcli vswitch ชุดพอร์ตมาตรฐานกลุ่ม -p VMNetwork2 --vlan-id ##

เครือข่าย esxcli vswitch ชุดพอร์ตมาตรฐานกลุ่ม -p VMNetwork3 --vlan-id ###

ม. # ลบกลุ่มพอร์ต VM เริ่มต้น

เครือข่าย esxcli vswitch ลบพอร์ตกลุ่มมาตรฐาน --portgroup-name = "VM Network" -v = vSwitch0

n # เปิดใช้งานอะแดปเตอร์ซอฟต์แวร์ iSCSI

ชุดซอฟต์แวร์ esxcli iscsi --enabled = true

esxcli iscsi เครือข่ายพอร์ตเพิ่ม -A vmhba33 -n vmk2

esxcli iscsi เครือข่ายพอร์ตเพิ่ม -A vmhba33 -n vmk3

esxcli iscsi เครือข่ายพอร์ตเพิ่ม -A vmhba33 -n vmk6

esxcli iscsi เครือข่ายพอร์ตเพิ่ม -A vmhba33 -n vmk7

โอ # เปลี่ยนชื่อที่เก็บข้อมูลในเครื่อง

ชื่อโฮสต์> $ var =

vim-cmd hostsvc / datastore / เปลี่ยนชื่อ datastore1 local-$var

พี #Define ปลั๊กอินการจัดเก็บข้อมูลหลายเส้นทางแบบเนทีฟสำหรับ EMC VNXe 3300 และปรับแต่ง IOPS แบบรอบตัวจาก 1000 เป็น 1

เพิ่มกฎ nmp satp ของหน่วยเก็บ esxcli --satp = "VMW_SATP_DEFAULT_AA" --vendor = "EMC" -P "VMW_PSP_RR" -O "iops = 1"

Q # รีเฟรชเครือข่าย

การรีเฟรชไฟร์วอลล์เครือข่าย esxcli

vim-cmd hostsvc / net / refresh

  1. กำหนดค่าไคลเอนต์ NTP โดยใช้ vSphere Client สำหรับแต่ละโฮสต์

การกำหนดค่า -> การกำหนดเวลา -> คุณสมบัติ -> ตัวเลือก -> การตั้งค่า NTP -> เพิ่ม -> ntp.mydomain.net -> เลือก "เริ่มบริการ NTP ใหม่เพื่อใช้การเปลี่ยนแปลง" -> ตกลง -> รอ… -> เลือก "เริ่มและหยุดกับโฮสต์" -> ตกลง -> ตรวจสอบ "NTP ไคลเอนต์ที่เปิดใช้งาน -> ตกลง

  1. รีบูตโฮสต์

  2. ดำเนินการกับ EMC VNXe Storage Provisioning กลับไปที่คู่มือนี้เมื่อเสร็จสมบูรณ์

  3. ลงชื่อเข้าใช้ไคลเอ็นต์ vSphere ต่อโฮสต์

  4. อัพเกรดแต่ละ Datastore เป็น VMFS-5

การกำหนดค่า -> ที่เก็บข้อมูล -> ไฮไลต์ที่เก็บข้อมูล -> อัปเกรดเป็น VMFS-5


0

น่าเสียดายที่ฉันคิดว่าไม่มีอะไรผิดปกติกับการตั้งค่าของคุณ คุณไม่สามารถใช้มากกว่า 1 Gb / s สำหรับ VM เดียว

ประเด็นตรงนี้คือคุณไม่ต้องการเพียงแค่ใช้ NIC สองตัว (หรือมากกว่า) คุณต้องการใช้มันพร้อมกันใน RAID-0 เช่นการกำหนดค่า

802.3ad ซึ่งเป็นมาตรฐานเกี่ยวกับการรวมระดับลิงก์และฉันคิดว่าคุณกำหนดค่าไว้บนสวิตช์ของคุณโดยทั่วไปแล้วจะไม่สามารถกำหนดค่าให้ใช้แถบการเชื่อมต่อเดียวใน NIC ที่แตกต่างกันได้ นี่เป็นเพราะวิธีการเลือกอินเตอร์เฟส -alg: ขึ้นอยู่กับ src และ dst MAC และ / หรือ IP / พอร์ตและการเชื่อมต่อเดียวจะมี MAC / IP / พอร์ตเดียวกันเสมอ

นี่ไม่ได้หมายความว่าการตั้งค่าของคุณไม่สามารถเพิ่มจำนวนได้มากขึ้น (ทั้งแบบ tput และ IOPS) แต่นี่เป็นการ จำกัด ขีด จำกัด ว่าประสิทธิภาพการแยก VM เดียวสามารถทำได้มากเพียงใด ลองโหลดอินสแตนซ์ IOMeter 2 หรือ 4 อันบน VM ที่แตกต่างกัน 2/4: ฉันเชื่อว่า tput ที่รวมกันนั้นจะสูงกว่ามาตรฐานของ VM เดี่ยว แต่ไม่มีเครื่องใดที่จะผ่านขีด จำกัด 1 Gb / s ได้

การเชื่อม Linux และสวิตช์ระดับสูงบางตัวรองรับวิธีการรวมลิงก์ที่แตกต่างกันและเปิดใช้งานอินเตอร์เฟสเครือข่ายแบบเต็มรูปแบบ อย่างไรก็ตามสิ่งนี้มีการแยกย่อยที่ไม่สำคัญว่าสวิทช์ / ระบบอื่น ๆ โต้ตอบกับวิธีการรวม "ไม่ได้มาตรฐาน" เหล่านี้อย่างไร

อย่างไรก็ตามสำหรับเครือข่ายการจัดเก็บข้อมูลคุณควรเปิดใช้งานเฟรมจัมโบ้จริงๆหากรองรับ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.