คำถามที่ฉันต้องการถามคือ: สัดส่วนของตัวอย่างภายใน 1 SD ของค่าเฉลี่ยของการแจกแจงปกติแตกต่างกันอย่างไรเมื่อจำนวนของตัวแปรเพิ่มขึ้น
(เกือบ) ทุกคนรู้ว่าในการแจกแจงปกติแบบ 1 มิตินั้น 68% ของตัวอย่างสามารถพบได้ในค่าเบี่ยงเบนมาตรฐาน 1 ค่าเฉลี่ย ในมิติที่ 2, 3, 4, ... ฉันรู้ว่ามันลดน้อยลง ... แต่เท่าไหร่ (แม่นยำ)? การมีตารางแสดงตัวเลขสำหรับ 1, 2, 3 ... 10 มิติเช่นเดียวกับ 1, 2, 3 ... 10 SDs ทุกคนสามารถชี้ไปที่ตารางดังกล่าวได้หรือไม่
บริบทเพิ่มเติมเล็กน้อย - ฉันมีเซ็นเซอร์ที่ให้ข้อมูลสูงสุด 128 ช่อง แต่ละช่องอาจมีสัญญาณรบกวนทางไฟฟ้า (เป็นอิสระ) เมื่อฉันรู้สึกถึงวัตถุการปรับเทียบฉันสามารถเฉลี่ยการวัดที่เพียงพอและได้รับค่าเฉลี่ยในช่องสัญญาณ 128 พร้อมกับค่าเบี่ยงเบนมาตรฐานส่วนบุคคล 128 แบบ
แต่ ... เมื่อมันมาถึงการอ่านทันทีของแต่ละบุคคลข้อมูลไม่ตอบสนองมากเช่น 128 การอ่านของแต่ละบุคคลเพราะมันเหมือนกับการอ่านเพียงครั้งเดียวของปริมาณเวกเตอร์ 128-dimensonal (มากถึง) แน่นอนว่านี่เป็นวิธีที่ดีที่สุดในการอ่านค่าวิพากษ์วิจารณ์ที่เราได้รับ (โดยทั่วไปคือ 4-6 จาก 128)
ฉันต้องการที่จะรู้สึกว่าการเปลี่ยนแปลง "ปกติ" คืออะไรและ "ผิดเพี้ยน" ในปริภูมิเวกเตอร์นี้คืออะไร ฉันแน่ใจว่าฉันเห็นตารางแบบเดียวกับที่ฉันอธิบายซึ่งจะนำไปใช้กับสถานการณ์แบบนี้ - ทุกคนสามารถชี้ไปที่หนึ่งได้หรือไม่