แบนด์วิดท์ถูกทำเป็นชั้นตามขนาดอินสแตนซ์ต่อไปนี้เป็นคำตอบที่ครอบคลุม:
สำหรับอินสแตนซ์ t2 / m3 / c3 / c4 / r3 / i2 / d2:
- t2.nano = ??? (จากปัจจัยการปรับสเกลฉันคาดหวัง 20-30 MBit / s)
- t2.micro = ~ 70 MBit / s (qiita บอกว่า 63 MBit / s) - t1.micro ได้รับประมาณ ~ 100 Mbit / s
- t2.small = ~ 125 MBit / s (t2, qiita บอกว่า 127 MBit / s, cloudharmony พูดว่า 125 Mbit / s พร้อมหนามแหลมถึง 200+ Mbit / s)
- * .medium = t2.medium ได้รับ 250-300 MBit / s, m3.medium ~ 400 MBit / s
- *. large = ~ 450-600 MBit / s (รูปแบบส่วนใหญ่, ดูด้านล่าง)
- * .xlarge = 700-900 MBit / s
- * .2x ใหญ่ = ~ 1 GBit / s + - 10%
- * .4xlarge = ~ 2 GBit / s + - 10%
- * .8x ใหญ่และทำเครื่องหมายพิเศษ = 10 Gbit คาดว่า ~ 8.5 GBit / s ต้องการเครือข่ายและ VPC ที่ได้รับการปรับปรุงเพื่อให้ได้ปริมาณงานเต็มที่
m1 อินสแตนซ์ขนาดเล็กกลางและใหญ่มักจะทำงานได้สูงกว่าที่คาดไว้ c1.medium เป็นคนที่คลั่งไคล้อีกคนหนึ่งที่ 800 MBit / s
ฉันรวบรวมสิ่งนี้โดยการรวมแหล่งที่มาหลายสิบแห่งเพื่อทำการวัดประสิทธิภาพ (โดยหลักแล้วจะใช้การเชื่อมต่อ iPerf & TCP) ให้เครดิตกับCloudHarmony & flux7โดยเฉพาะอย่างยิ่งสำหรับการวัดประสิทธิภาพ (โปรดทราบว่าลิงก์ทั้งสองไปที่การค้นหาของ Google แสดงการวัดประสิทธิภาพของแต่ละบุคคล)
คำเตือนและหมายเหตุ:
ขนาดอินสแตนซ์ขนาดใหญ่มีรายงานการเปลี่ยนแปลงมากที่สุด:
- m1. large คือ ~ 800 Mbit / s (!!!)
- t2.large = ~ 500 MBit / s
- c3.large = ~ 500-570 Mbit / s (ผลลัพธ์ที่แตกต่างจากแหล่งที่แตกต่างกัน)
- c4.large = ~ 520 MBit / s (ฉันได้ยืนยันเรื่องนี้อย่างอิสระแล้ว)
- m3. large ดีกว่าที่ ~ 700 MBit / s
- m4. large คือ ~ 445 Mbit / s
- r3. large คือ ~ 390 Mbit / s
อินสแตนซ์ Burstable (T2) ปรากฏขึ้นเพื่อแสดงประสิทธิภาพเครือข่ายที่แตกได้เช่นกัน:
โปรดทราบว่าสิ่งเหล่านี้อยู่ในภูมิภาคเดียวกัน - หากคุณถ่ายโอนข้ามภูมิภาคประสิทธิภาพที่แท้จริงอาจช้ากว่ามาก แม้แต่ในกรณีที่มีขนาดใหญ่ขึ้นฉันก็เห็นตัวเลขไม่กี่ร้อย MBit / s