ฉันเพิ่งทราบถึงปัญหาเดียวกับ BFD โดยตรงซึ่งเป็นความต้องการของ CPU ขณะนี้ฉันกำลังตรวจสอบปัญหากับ Cisco 7301 ซึ่งเมื่อมีการรับส่งข้อมูลมากขึ้นในช่วงเวลาเร่งด่วนของเราเมื่อเทียบกับเวลาที่เหลือของวันบางครั้ง BFD อาจหมดเวลาและเดินทางไปที่ลิงก์ถัดไป
ดูเหมือนว่าภายใต้ปริมาณการรับส่งข้อมูลสูงการใช้งาน CPU ของเราเตอร์จะเพิ่มขึ้น (ซึ่งไม่ใช่เรื่องแปลก) แต่ที่แพ็กเก็ต BFD ของ CPU ประมาณ 40-50% ไม่ได้รับทรัพยากรเพียงพอ
อย่างไรก็ตามฉันได้พบข้อมูลต่อไปนี้ซึ่งแนะนำปัญหาเพิ่มเติมเกี่ยวกับ BFD (จากงานนำเสนอ NANOG นี้มีงานนำเสนอมากขึ้นเป็นข้อมูลที่ดีมากให้อ่าน!)
คำเตือนคืออะไร?
- สองหลัก:
- BFD มีความต้องการทรัพยากรสูงขึ้นอยู่กับขนาดของคุณ
- BFD ไม่สามารถมองเห็นได้ด้วยโปรโตคอลการรวมเลเยอร์ 2 (Ethernet LAGs หรือการรวมกลุ่ม POS)
ความต้องการทรัพยากร BFD
- จำนวนเซสชัน BFD ในแต่ละ linecard หรือเราเตอร์สามารถส่งผลกระทบกับ BFD ที่ปรับขนาดสำหรับคุณ - แต่ละแพลตฟอร์มที่ไม่ซ้ำกันมีข้อ จำกัด ของตัวเอง
- ชุดอินเตอร์เฟสที่สนับสนุน min tx / rx ที่ 250ms หรือ 2 วินาทีได้ถูกมองเห็น
- ในบางกรณีอินสแตนซ์ BFD ของเราเตอร์อาจต้องดำเนินการกับตัวประมวลผลเส้นทางทั้งนี้ขึ้นอยู่กับการใช้งาน
- ทดสอบแพลตฟอร์มของคุณก่อนที่จะปรับใช้ BFD พยายามใส่ภาระใน CPU RP หรือ LC ด้วยการตั้งค่าที่คุณกำหนดไว้ สามารถทำได้โดย:
- การดำเนินการคำสั่ง CPU-heavy
- การแพ็คเก็ตน้ำท่วมเป็น TTL หมดอายุที่ปลายทาง
ความต้องการทรัพยากร BFD (ต่อ)
- ลองใช้ค่าอะไรปลอดภัย
- จากการพูดคุยกับผู้ประกอบการหลาย ๆ คนนั้น 300ms พร้อมตัวคูณ 3 (การตรวจจับ 900ms) ดูเหมือนจะเป็นค่าที่ปลอดภัยซึ่งทำงานบนอุปกรณ์ส่วนใหญ่ได้ดีพอสมควร
- นี่คือการปรับปรุงที่สำคัญกว่าทางเลือกบางอย่าง
การรวมลิงก์ BFD และ L2
- BFD ไม่รู้ถึงสมาชิกของบันเดิลลิงก์ L2
- บันเดิล 4x10GigE L2 (802.3ad) จะปรากฏเป็นคำคุณศัพท์ L3 เดียว แพ็คเก็ต BFD จะถูกส่งไปที่ลิงค์สมาชิกเดียวแทนที่จะลิงค์ทั้งหมด 4
- ความล้มเหลวของการเชื่อมโยงกับ BFD นั้นจะส่งผลให้การ L3 adjacency ทั้งหมดล้มเหลว
- อย่างไรก็ตามในบางสถานการณ์ลิงค์สมาชิกที่ล้มเหลวอาจส่งผลให้แพ็คเก็ต BFD เดียวที่ถูกทิ้ง แพ็คเก็ตที่ตามมาอาจเส้นทางผ่านลิงก์สมาชิกทำงาน