คำถามติดแท็ก lacp

5
ที่อยู่ปลายทางสำหรับเลเยอร์ 3 LACP ทำงานได้อย่างไรและโดยเฉพาะ
จากคำถามก่อนหน้านี้เมื่อปีที่แล้ว ( Multiplexed 1 Gbps Ethernet? ) ฉันออกไปและตั้งค่าแร็คใหม่ด้วย ISP ใหม่พร้อมลิงก์ LACP ทั่วทุกที่ เราต้องการสิ่งนี้เพราะเรามีเซิร์ฟเวอร์ส่วนบุคคล (แอปพลิเคชั่นหนึ่งตัว, IP หนึ่งตัว) ที่ให้บริการคอมพิวเตอร์ไคลเอนต์นับพันทั่วอินเทอร์เน็ตเกินกว่า 1Gbps สะสม แนวคิด LACP นี้ควรจะให้เราทำลายสิ่งกีดขวาง 1Gbps โดยไม่ต้องเสียเงินมหาศาลกับสวิตช์ 10Gee และ NIC น่าเสียดายที่ฉันพบปัญหาเกี่ยวกับการกระจายการรับส่งข้อมูลขาออก (สิ่งนี้แม้จะมีคำเตือนของ Kevin Kuphal ในคำถามที่เชื่อมโยงข้างต้น) เราเตอร์ของ ISP นั้นเป็น Cisco จากบางประเภท (ฉันอนุมานได้ว่าจากที่อยู่ MAC) สวิตช์ของฉันคือ HP ProCurve 2510G-24 และเซิร์ฟเวอร์ก็คือ HP DL 380 G5 ที่ใช้ Debian …

2
VMware Distributed vSwitches (VDS) - การออกแบบทฤษฎี * จริง * ใช้กรณีและตัวอย่าง
ฉันเริ่มสำรวจVMware Distributed Switches (dvSwitch หรือ VDS) เพื่อใช้ในการติดตั้งที่มีอยู่และใหม่ สมมติว่า VMware เวอร์ชัน 5.1 และใหม่กว่าพร้อมสิทธิ์ใช้งานEnterprise Plus ก่อนหน้านี้ฉันเคยใช้ประโยชน์ vSwitch มาตรฐานที่กำหนดด้วยประเภท uplink ทางกายภาพที่ถูกต้อง (1GbE หรือ 10GbE) และจัดการอย่างอิสระในแต่ละโฮสต์ การใช้สวิตช์ที่กระจายช่วยฉันในแง่พื้นฐานได้อย่างไร ตรวจสอบการติดตั้งและการตั้งค่าอื่น ๆ ที่อธิบายไว้บนอินเทอร์เน็ตฉันเห็นสถานการณ์มากมายที่เครือข่ายการจัดการเสมือนหรืออินเตอร์เฟส VMkernel ยังคงอยู่บนสวิตช์มาตรฐานโดยปริมาณการใช้งาน VM จะไปยังสวิตช์แบบกระจาย รูปแบบไฮบริด ฉันเคยเห็นคำแนะนำเพื่อหลีกเลี่ยงการกระจายสวิตช์ทั้งหมด ! แต่ยิ่งกว่าสิ่งใดข้อมูลที่ฉันพบทางออนไลน์นั้นล้าสมัยไปแล้ว ในความพยายามที่อ่อนแอในการแปลงหนึ่งในเซิร์ฟเวอร์ที่มีอยู่ของฉันฉันไม่แน่ใจว่าจะต้องกำหนดส่วนต่อประสานการจัดการที่ใดและไม่สามารถหาคำตอบที่ดีเกี่ยวกับวิธีแก้ไขปัญหานี้ได้ ดังนั้นแนวปฏิบัติที่ดีที่สุดที่นี่คืออะไร หากต้องการใช้การรวมกันของสวิตช์มาตรฐานและสวิตช์แบบกระจาย หรือนี่ไม่ใช่แค่เทคโนโลยีที่มีจิตใจดีหรือไม่? สีนี้เป็นอย่างไรจากการรวมความสามารถของ LACPใน VDS เมื่อเร็ว ๆ นี้ ? นี่คือสถานการณ์จำลองการติดตั้งใหม่ในชีวิตจริง: เซิร์ฟเวอร์ HP ProLiant DL360 …

1
การรวมลิงค์ FreeBSD ไม่เร็วไปกว่าลิงค์เดียว
เราใส่ 4 พอร์ตIntel I340-T4 NIC ใน FreeBSD 9.3 เซิร์ฟเวอร์1และกำหนดค่าสำหรับการรวมลิงค์ในโหมด LACPในความพยายามที่จะลดเวลาที่ใช้ในการกระจก 8-16 TiB ข้อมูลจากไฟล์เซิร์ฟเวอร์หลักเพื่อ 2- 4 โคลนในแบบคู่ขนาน เราคาดหวังว่าจะได้รับแบนด์วิดธ์รวมสูงถึง 4 Gbit / วินาที แต่ไม่ว่าเราจะพยายามอะไรมันก็ไม่เคยออกมาเร็วกว่าการรวม 1 Gbit / วินาที 2 เรากำลังใช้iperf3เพื่อทดสอบสิ่งนี้บน LAN ที่เงียบสงบ 3อินสแตนซ์แรกเกือบจะได้รับกิกะบิตตามที่คาดไว้ แต่เมื่อเราเริ่มต้นครั้งที่สองแบบขนานไคลเอนต์ทั้งสองจะลดความเร็วลงเหลือประมาณ½ Gbit / วินาที การเพิ่มลูกค้ารายที่สามลดความเร็วของลูกค้าทั้งสามให้เป็น ~ ⅓ Gbit / วินาทีและอื่น ๆ เราได้ดูแลการตั้งค่าการiperf3ทดสอบที่ทราฟฟิกจากไคลเอนต์ทดสอบทั้งสี่เข้าสู่สวิตช์ส่วนกลางในพอร์ตต่าง ๆ : เราได้ตรวจสอบแล้วว่าเครื่องทดสอบแต่ละเครื่องมีเส้นทางอิสระกลับไปที่แร็คสวิตช์และเซิร์ฟเวอร์ไฟล์ NIC และสวิตช์ทั้งหมดมีแบนด์วิดท์เพื่อดึงข้อมูลนี้โดยแยกlagg0กลุ่มและกำหนดที่อยู่ IP แยกต่างหากให้กับแต่ละเครื่อง …

3
การรวมลิงก์ (LACP / 802.3ad) ปริมาณงานสูงสุด
ฉันเห็นพฤติกรรมที่สับสนเกี่ยวกับอินเตอร์เฟสที่ถูกผูกมัดภายใต้ Linux และฉันต้องการที่จะโยนสถานการณ์ออกไปด้วยความหวังว่าจะมีคนล้างข้อมูลให้ฉัน ฉันมีสองเซิร์ฟเวอร์: เซิร์ฟเวอร์ 1 (S1) มีการเชื่อมต่ออีเธอร์เน็ต 4x 1Gbit; เซิร์ฟเวอร์ 2 (S2) มีการเชื่อมต่ออีเธอร์เน็ต 2x 1Gbit เซิร์ฟเวอร์ทั้งสองกำลังใช้งาน Ubuntu 12.04 แม้ว่าจะมีเคอร์เนล 3.11.0-15 (จากแพ็คเกจ lux-saucy linux-generic) เซิร์ฟเวอร์ทั้งสองมีอินเทอร์เฟซเครือข่ายที่เกี่ยวข้องทั้งหมดที่รวมอยู่ในอินเทอร์เฟซ bond0 เดียวด้วยการกำหนดค่าต่อไปนี้ (เป็น/etc/network/interfaces): bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] ระหว่างเซิร์ฟเวอร์นั้นมีสวิตช์ HP สองตัวซึ่งเป็น (ฉันคิดว่า) กำหนดค่าอย่างถูกต้องสำหรับ LACP บนพอร์ตที่เป็นปัญหา ตอนนี้ลิงก์กำลังใช้งาน - ทราฟฟิกเครือข่ายจะไหลเข้าและออกจากทั้งสองเครื่องอย่างมีความสุข และอินเทอร์เฟซที่เกี่ยวข้องทั้งหมดกำลังถูกใช้ดังนั้นจึงไม่เหมือนกับการรวมที่ล้มเหลวอย่างสมบูรณ์ …
10 linux  bonding  lacp 

1
ตัวเลือกการออกแบบ iSCSI สำหรับสวิตช์แบบกระจาย 10GbE VMware? MPIO กับ LACP
ฉันกำลังทำงานเพื่อขยายแบ็คเอนด์พื้นที่เก็บข้อมูลสำหรับ VMware vSphere 5.5 และ 6.0 หลายคลัสเตอร์ที่ดาต้าเซ็นเตอร์ของฉัน ฉันใช้ดาต้าสโตร์ NFS เป็นหลักตลอดประสบการณ์การใช้งาน VMware ของฉัน (Solaris ZFS, Isilon, VNX, Linux ZFS) และอาจแนะนำNimble iSCSI Arrayให้กับสภาพแวดล้อมเช่นเดียวกับอาร์เรย์ Tegile (ZFS) ไฮบริดที่เป็นไปได้ โซลูชันหน่วยเก็บข้อมูลปัจจุบันคืออาร์เรย์ที่ใช้ Nexenta ZFS และ Linux ZFS ซึ่งให้การเมาท์ NFS ไปยังโฮสต์ vSphere การเชื่อมต่อเครือข่ายจะถูกส่งผ่าน 2 x 10GbE LACP trunks บนหัวการจัดเก็บและ 2 x 10GbE ในแต่ละโฮสต์ ESXi สวิทช์เป็นหน่วยคู่บนสุดของArista 7050S-52 ที่กำหนดค่าเป็นMLAG เพียร์ …

6
ช่องสัญญาณ LACP เดียวบนสวิตช์หลายตัวเพิ่มความซ้ำซ้อนหรือไม่
ฉันอยากรู้อยากเห็นสำหรับความคิดเห็นการค้นพบหรือหลักฐานที่แสดงว่าการเชื่อมต่อหลายอินเตอร์เฟสโดยใช้ LACP กับพอร์ตในสวิตช์หลายตัวสามารถเพิ่มความซ้ำซ้อนได้ อินเทอร์เฟซที่ถูกผูกมัดก่อนหน้านี้เคยเป็นสวิตช์เดี่ยวเสมอโดยมีช่องสัญญาณสำรองไปยังพอร์ตอื่น ความคิดของฉันก็คือว่าเพราะนี่เป็น LACP เดียวโอกาสที่เหตุการณ์หรือการเปลี่ยนแปลงอาจนำไปสู่การหยุดทำงานของบริการที่กว้างขวาง โดยไม่ต้องมีอุปกรณ์สำรองหรือเวลาเพื่อทดสอบช่องทางเดียวนี้ผ่านสวิตช์ที่หลากหลายสามารถให้ใครก็ตามที่มีความรู้ด้านเครือข่ายมากกว่าตัวฉันบอกฉันว่ามีเหตุการณ์ด้านเครือข่ายที่จะนำการเชื่อมต่อเครือข่ายไปยังเซิร์ฟเวอร์ที่สร้างอินเทอร์เฟซแบบผูกมัด ถึงสองพอร์ตบนสวิตช์แยกกันได้อย่างไร การใช้ช่องทางอีเธอร์เน็ตที่ถูกผูกมัดข้ามสวิตช์หลายตัว (ที่เราได้รับคำแนะนำว่าเราสามารถใช้) จากเซิร์ฟเวอร์ให้ทั้งปริมาณงานที่ดีขึ้น (ไม่ต้องสงสัย) และความซ้ำซ้อนที่ดีขึ้น (ไม่แน่นอน) สามารถ / กิจกรรมเครือข่ายเช่นสวิตช์ล้มเหลว, การย้ายพอร์ต, การแพตช์, การกู้คืนและอื่น ๆ ทำให้ช่องทางสำหรับอินเทอร์เฟซเครือข่ายเซิร์ฟเวอร์ทั้งสองไม่พร้อมใช้งานหรือไม่ ขอบคุณล่วงหน้า.

3
linux balance-rr (โหมด bond = 0) ทำงานกับสวิตช์ทั้งหมดหรือไม่
ฉันกำลังกำหนดค่าอินเทอร์เฟซอีเธอร์เน็ตสองตัวให้เป็นกลุ่มการรวมเพื่อเพิ่มแบนด์วิดท์เป็นสองเท่าและฉันสงสัยว่าโหมด Bond = 0 ใช้ได้กับสวิตช์ทั้งหมดหรือไม่ แล้วสวิตช์ใบ้ที่ไม่รองรับ LACP ล่ะ? ระเบียบวิธีนี้จะทำให้แบนด์วิดธ์สองเท่าสำหรับโฮสต์เดียว ("เซสชัน") หรือไม่
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.