คำถามติดแท็ก bonding

"bonding" เป็นคำศัพท์ของ Linux สำหรับการรวมลิงก์

6
เพราะเหตุใดกิกะบิตของฉันจึงไม่ส่งผ่านข้อมูลอย่างน้อย 150 MB / s
ฉันเชื่อมต่อ CrossEdge PowerEdge 6950 สองตัวโดยตรง (โดยใช้เส้นตรง) บนสองอะแด็ปเตอร์ PCIe ที่ต่างกัน ฉันได้รับลิงค์กิกะบิตในแต่ละบรรทัด (1,000 MBit, full duplex, flow contol ทั้งสองทิศทาง) ตอนนี้ฉันกำลังพยายามที่จะเชื่อมต่ออินเทอร์เฟซเหล่านี้ใน bond0 โดยใช้ rr-algorithm ทั้งสองด้าน (ฉันต้องการรับ 2,000 MBit สำหรับเซสชัน IP เดียว) เมื่อฉันทดสอบทรูพุตโดยการถ่ายโอน / dev / ศูนย์ถึง / dev / null โดยใช้ dd bs = 1M และ netcat ในโหมด tcp ฉันได้รับปริมาณงานที่ 70 MB / …
17 linux  bonding  sles10 

4
วิธีการระบุ NICs ที่เชื่อมต่อกับสวิตช์เดียวกันจากกล่อง Linux?
ตั้งค่าเริ่มต้น ในฐานะผู้ดูแลระบบ Linux คุณได้ติดตั้งกล่อง Linux ใหม่พร้อม 6 NICs eth0 ถึง eth5 อินเตอร์เฟส eth0 ได้รับการกำหนดค่าอย่างถูกต้องและอินเทอร์เฟซอื่น ๆ ทั้งหมดนั้นทำงานอยู่ แต่ไม่มีที่อยู่ IP พวกเครือข่ายเพิ่งต่อสายเคเบิลสี่เส้นเข้ากับกล่องนี้ สาย LAN สองเส้นใช้สำหรับเชื่อมต่อกล่องกับเครือข่ายการผลิตและใช้สายเคเบิลสองเส้นเพื่อเชื่อมต่อกล่องกับเครือข่ายส่วนตัว คุณรู้เพียงว่า eth0 เชื่อมต่อกับเครือข่ายการผลิต แต่คุณไม่ทราบว่า NIC อื่นใดที่เชื่อมต่อกับสวิตช์เดียวกันเนื่องจากมีเซิร์ฟเวอร์รุ่นต่าง ๆ และ / หรือคนในเครือข่ายใช้ NIC ผิดสำหรับการเชื่อมต่อ งานในมือ เนื่องจากการตั้งค่านี้เป็นเรื่องปกติสำหรับโครงสร้างพื้นฐานของคุณคุณต้องการตั้งค่าการเชื่อมต่อโดยอัตโนมัติ ตอนนี้คุณมีหน้าที่ตรวจจับ NIC ที่ไม่ได้เชื่อมต่อเลยและ NIC ใดที่เชื่อมโยงกับสวิตช์เดียวกันดังนั้นพวกเขาจึงอาจถูกผูกมัด คุณมีสิทธิ์เข้าถึงกล่อง Linux เท่านั้นและไม่สามารถสอบถามสวิตช์ได้ ไอเดีย การตรวจสอบสถานะลิงก์เป็นเรื่องง่าย: ethtool $device | grep …

3
RHEL 6.4: การเชื่อมช่องทางโหมด 1 ไม่ได้ล้มเหลว
ฉันใช้ RHEL 6.4, kernel-2.6.32-358.el6.i686 บน HP ML 350 G5 กับ Broadcom NetXtreme II BCM5708 สองเครื่องในตัว NICs เป้าหมายของฉันคือการเชื่อมช่องทางเชื่อมต่อสองอินเทอร์เฟซเข้ากับmode=1คู่ของการเฟลโอเวอร์ ปัญหาของฉันคือแม้ว่าหลักฐานทั้งหมดที่มีการตั้งค่าและยอมรับการดึงสายเคเบิลออกจาก NIC หลักทำให้การสื่อสารทั้งหมดหยุด ifcfg-etho และ ifcfg-eth1 ก่อนอื่น ifcfg-eth0: DEVICE=eth0 HWADDR=00:22:64:F8:EF:60 TYPE=Ethernet UUID=99ea681d-831b-42a7-81be-02f71d1f7aa0 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes ถัดไป ifcfg-eth1: DEVICE=eth1 HWADDR=00:22:64:F8:EF:62 TYPE=Ethernet UUID=92d46872-eb4a-4eef-bea5-825e914a5ad6 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes ifcfg-bond0 ไฟล์ปรับแต่งของพันธบัตรของฉัน: DEVICE=bond0 IPADDR=192.168.11.222 GATEWAY=192.168.11.1 …
11 linux  redhat  rhel6  bonding 

16
สาย DSL 2 เส้น ... มีประโยชน์ไหม?
ฉันมี Verizon DSL ในสำนักงานของฉันฉันใส่ DSL ในประมาณหนึ่งปีที่แล้วสำหรับ $ 29.95 เดือน ... ฉันเพิ่งเพิ่มสายโทรศัพท์ใหม่เมื่อเร็ว ๆ นี้และมันถูกกว่าที่จะได้รับจริงรวมกับ DSL ดังนั้นตอนนี้ฉันมีสองบรรทัด DSL ... แผนของฉันคือการปิดครั้งแรกเมื่อสัญญา 1 ปีของฉันเกิดขึ้น (ในเดือนกันยายน) สองสามครั้งที่ DSL ออกไปหนึ่งบรรทัดดังนั้นฉันจึงใช้อีกสายหนึ่งซึ่งเป็นความซ้ำซ้อนที่ดีที่จะมี - แต่มันก็ไม่ได้เกิดขึ้นบ่อยครั้ง (ฉันถอดปลั๊กหนึ่งบรรทัดและเสียบอีกอัน) คำถามคือมีวิธีใช้ทั้งสองสาย DSL ด้วยกันเพื่อที่ เพิ่มแบนด์วิดท์และความเร็วที่มีประสิทธิภาพอาจเพิ่มขึ้น (เป็นไปได้หรือไม่) ให้พวกเขาทั้งบนและเชื่อมต่อบางส่วนเพื่อให้การจราจรบนเครือข่ายของฉันจะใช้อย่างใดอย่างหนึ่งและถ้าใครไปลงการจราจรจะเส้นทางโดยอัตโนมัติ? หากฉันสามารถเพิ่มความเร็วด้วยการมีสองหรืออย่างน้อยรับความซ้ำซ้อนอัตโนมัติฉันไม่เห็นเหตุผลที่จะเก็บทั้งสองไว้ใน ....
11 bonding  dsl 

1
การรวมลิงค์ FreeBSD ไม่เร็วไปกว่าลิงค์เดียว
เราใส่ 4 พอร์ตIntel I340-T4 NIC ใน FreeBSD 9.3 เซิร์ฟเวอร์1และกำหนดค่าสำหรับการรวมลิงค์ในโหมด LACPในความพยายามที่จะลดเวลาที่ใช้ในการกระจก 8-16 TiB ข้อมูลจากไฟล์เซิร์ฟเวอร์หลักเพื่อ 2- 4 โคลนในแบบคู่ขนาน เราคาดหวังว่าจะได้รับแบนด์วิดธ์รวมสูงถึง 4 Gbit / วินาที แต่ไม่ว่าเราจะพยายามอะไรมันก็ไม่เคยออกมาเร็วกว่าการรวม 1 Gbit / วินาที 2 เรากำลังใช้iperf3เพื่อทดสอบสิ่งนี้บน LAN ที่เงียบสงบ 3อินสแตนซ์แรกเกือบจะได้รับกิกะบิตตามที่คาดไว้ แต่เมื่อเราเริ่มต้นครั้งที่สองแบบขนานไคลเอนต์ทั้งสองจะลดความเร็วลงเหลือประมาณ½ Gbit / วินาที การเพิ่มลูกค้ารายที่สามลดความเร็วของลูกค้าทั้งสามให้เป็น ~ ⅓ Gbit / วินาทีและอื่น ๆ เราได้ดูแลการตั้งค่าการiperf3ทดสอบที่ทราฟฟิกจากไคลเอนต์ทดสอบทั้งสี่เข้าสู่สวิตช์ส่วนกลางในพอร์ตต่าง ๆ : เราได้ตรวจสอบแล้วว่าเครื่องทดสอบแต่ละเครื่องมีเส้นทางอิสระกลับไปที่แร็คสวิตช์และเซิร์ฟเวอร์ไฟล์ NIC และสวิตช์ทั้งหมดมีแบนด์วิดท์เพื่อดึงข้อมูลนี้โดยแยกlagg0กลุ่มและกำหนดที่อยู่ IP แยกต่างหากให้กับแต่ละเครื่อง …

3
การรวมลิงก์ (LACP / 802.3ad) ปริมาณงานสูงสุด
ฉันเห็นพฤติกรรมที่สับสนเกี่ยวกับอินเตอร์เฟสที่ถูกผูกมัดภายใต้ Linux และฉันต้องการที่จะโยนสถานการณ์ออกไปด้วยความหวังว่าจะมีคนล้างข้อมูลให้ฉัน ฉันมีสองเซิร์ฟเวอร์: เซิร์ฟเวอร์ 1 (S1) มีการเชื่อมต่ออีเธอร์เน็ต 4x 1Gbit; เซิร์ฟเวอร์ 2 (S2) มีการเชื่อมต่ออีเธอร์เน็ต 2x 1Gbit เซิร์ฟเวอร์ทั้งสองกำลังใช้งาน Ubuntu 12.04 แม้ว่าจะมีเคอร์เนล 3.11.0-15 (จากแพ็คเกจ lux-saucy linux-generic) เซิร์ฟเวอร์ทั้งสองมีอินเทอร์เฟซเครือข่ายที่เกี่ยวข้องทั้งหมดที่รวมอยู่ในอินเทอร์เฟซ bond0 เดียวด้วยการกำหนดค่าต่อไปนี้ (เป็น/etc/network/interfaces): bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] ระหว่างเซิร์ฟเวอร์นั้นมีสวิตช์ HP สองตัวซึ่งเป็น (ฉันคิดว่า) กำหนดค่าอย่างถูกต้องสำหรับ LACP บนพอร์ตที่เป็นปัญหา ตอนนี้ลิงก์กำลังใช้งาน - ทราฟฟิกเครือข่ายจะไหลเข้าและออกจากทั้งสองเครื่องอย่างมีความสุข และอินเทอร์เฟซที่เกี่ยวข้องทั้งหมดกำลังถูกใช้ดังนั้นจึงไม่เหมือนกับการรวมที่ล้มเหลวอย่างสมบูรณ์ …
10 linux  bonding  lacp 

2
การตั้งค่า MTU บนอินเตอร์เฟสแบบโลจิคัลส่งผลกระทบต่อฟิสิคัลอินเตอร์เฟสหรือไม่
ฉันใช้การรวมกันของอินเตอร์เฟส -, vlan- และสะพาน - อินเตอร์เฟสเพื่อให้ความซ้ำซ้อนและเลเยอร์เครือข่ายแบบลอจิคัลที่แตกต่างกันไปยัง xen domU's การตั้งค่านี้ทำงานได้ดี แต่ฉันไม่แน่ใจเล็กน้อยว่าการตั้งค่าที่แตกต่างกันในส่วนต่อประสานเหล่านี้มีผลต่อกันอย่างไร เพื่อแสดงให้เห็นนี่คือการตั้งค่าของฉันใน dom0 ทั่วไป: /- vlan10 -- br10 eth0 -\ / > bond0 <--- vlan20 -- br20 eth1 -/ \ \- vlan30 -- br30 การพิจารณาบอนด์ -, vlan- และบริดจ์อินเทอร์เฟซนั้นเป็นตรรกะมากกว่าทางกายภาพการตั้งค่า MTU บนอินเตอร์เฟสเหล่านี้มีผลกระทบใด ๆ หรือไม่หากอินเทอร์เฟซทางกายภาพ (eth0, eth1) มีชุด MTU ที่แตกต่างกัน

4
การเชื่อมต่อ Multi-WAN ในสื่อต่างๆ
ฉันเพิ่งคิดอีกครั้งเกี่ยวกับผลิตภัณฑ์ที่ Viprinet จัดหาโดยทั่วไปพวกเขามีเราเตอร์หนึ่งคู่ที่อาศัยอยู่ในศูนย์ข้อมูล, VPN Multichannel Hubและฮาร์ดแวร์ในสถานที่ของเราเตอร์เราเตอร์หลายช่อง VPNของพวกเขา พวกเขายังได้การ์ดเชื่อมต่อเครือข่าย (เช่น HWIC) สำหรับอะแดปเตอร์ 3G, UMTS, Ethernet, ADSL และ ISDN เกมหลักของพวกเขาดูเหมือนจะเชื่อมติดกับสื่อต่าง ๆ มันเป็นสิ่งที่ฉันต้องการใช้สำหรับโครงการสองสามโครงการ แต่ราคาของมันค่อนข้างสุดขีดจริง ๆ ฮับนั้นมีประมาณ 1-2k เราเตอร์นั้นมี 2-6k และโมดูลอินเทอร์เฟซคือ 200-600 ต่อหนึ่ง ดังนั้นสิ่งที่ฉันอยากรู้คือเป็นไปได้หรือไม่ที่เราจะมีคู่ของเราเตอร์ Cisco จำนวน 28xx หรือ 18xx ซีรีส์เพื่อทำสิ่งที่คล้ายกันและเชื่อมต่อพอร์ต WAN ที่แตกต่างกันโดยทั่วไป แชนเนลกลับสู่อินเทอร์เน็ตพร้อมกับ failover (หรือเกือบทั้งหมด) อย่างราบรื่นหากหนึ่งในอินเตอร์เฟส WAN ควรล้มเหลว โดยทั่วไปถ้าฉันมี 3x 3G ไปยังโมเด็มอีเธอร์เน็ตและแต่ละเครือข่ายที่แตกต่างกันฉันต้องการที่จะสามารถโหลด / ผูกมัดกับพวกเขาทั้งหมดโดยไม่ต้องจ่ายเงิน …

3
linux balance-rr (โหมด bond = 0) ทำงานกับสวิตช์ทั้งหมดหรือไม่
ฉันกำลังกำหนดค่าอินเทอร์เฟซอีเธอร์เน็ตสองตัวให้เป็นกลุ่มการรวมเพื่อเพิ่มแบนด์วิดท์เป็นสองเท่าและฉันสงสัยว่าโหมด Bond = 0 ใช้ได้กับสวิตช์ทั้งหมดหรือไม่ แล้วสวิตช์ใบ้ที่ไม่รองรับ LACP ล่ะ? ระเบียบวิธีนี้จะทำให้แบนด์วิดธ์สองเท่าสำหรับโฮสต์เดียว ("เซสชัน") หรือไม่

4
ผู้คนตรวจสอบสถานะของการเชื่อมต่อทาสอินเทอร์เฟซบน linux ได้อย่างไร?
ฉันได้ตั้งค่าอินเทอร์เฟซสองรายการเป็นพันธะทาส (eth0 และ eth1 ถูกผูกมัดเป็น bond0) ผู้คนติดตามสถานะของทาสได้อย่างไร คุณจะได้รับการแจ้งเตือนอย่างไรหากลิงก์ล้มเหลวในอินเทอร์เฟซเดียว คุณสำรวจความคิดเห็นใน / sys / class / net / bond0 หรือ / proc / net / bonding / bond0 หรือไม่ มีภูตที่ฉันสามารถกำหนดค่าให้รับการแจ้งเตือนได้หรือไม่? บริบทบางอย่าง: ฉันใช้ SUSE 11 เซิร์ฟเวอร์ SP1 และฉันไม่สนใจเครื่องมือกราฟิกใด ๆ เนื่องจากเซิร์ฟเวอร์นี้ไม่ได้ใช้งาน X11

3
Server-to-Switch Trunking ในสวิตช์ Procurve หมายความว่าอย่างไร
ฉันต้องการตั้งค่าสวิตช์ซ้ำซ้อนในสภาพแวดล้อมดาต้าเซ็นเตอร์ใหม่ ดูเหมือนว่า IEEE 802.3ad จะเป็นแนวคิดที่มุ่งเน้นในเรื่องนี้อย่างน้อยเมื่อจับคู่กับเทคโนโลยีที่มีข้อ จำกัด "สวิตช์เดียว" สำหรับการรวมลิงก์ มองผ่านโบรชัวร์สำหรับสวิตช์ procurve ฉันเห็น: Server-to-Switch Distributed Trunking ซึ่งอนุญาตให้เซิร์ฟเวอร์เชื่อมต่อกับสวิตช์สองตัวที่มีลอจิกแบบลอจิคัลเดียว เพิ่มความยืดหยุ่นและเปิดใช้งานการแบ่งปันโหลดในศูนย์ข้อมูลเสมือนจริง http://www.procurve.com/docs/products/brochures/5400_3500%20Product%20Brochure4AA0-4236ENW.pdf ฉันพยายามที่จะเข้าใจว่าสิ่งนี้เกี่ยวข้องกับมาตรฐาน 802.3a อย่างไรดูเหมือนว่ามันจะให้สิ่งที่ฉันต้องการ (เซิร์ฟเวอร์หนึ่งมี 2 นิคส์ซึ่งแต่ละอันเชื่อมต่อกับสวิทช์แยกกัน มอบความสุขสำรองที่เราต้องการ) แต่ฉันคิดว่าฉันกำลังมองหาใครบางคนที่คุ้นเคยกับแนวคิดนี้และสามารถเพิ่มเข้าไปได้
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.