Linux มีแนวคิดเรื่อง Load Average ซึ่งกำหนดเป็น:
ค่าเฉลี่ยการโหลดระบบคือจำนวนเฉลี่ยของกระบวนการที่อยู่ในสถานะที่รันได้หรือไม่สามารถหยุดทำงานได้ กระบวนการในสถานะที่เรียกใช้ได้อาจใช้ CPU หรือรอการใช้ CPU กระบวนการในสถานะที่ไม่สามารถหยุดการทำงานกำลังรอการเข้าถึง I / O บางอย่างเช่นกำลังรอดิสก์ ค่าเฉลี่ยจะได้รับในช่วงเวลาสามครั้ง ค่าเฉลี่ยการโหลดไม่ได้ถูกทำให้เป็นมาตรฐานสำหรับจำนวนของ CPU ในระบบดังนั้นค่าเฉลี่ยการโหลด 1 หมายถึงระบบ CPU เดียวถูกโหลดตลอดเวลาในขณะที่ระบบ CPU 4 นั้นหมายความว่ามันไม่ได้ใช้งาน 75% ของเวลา
อะไรที่ใกล้เคียงที่สุดที่มีให้ผ่าน WMI โดยพื้นฐานแล้วมีความแตกต่างระหว่างสองระบบปฏิบัติการที่กำหนดวิธีการวัดประสิทธิภาพดังกล่าว? อะไรคือความแตกต่าง?