ฉันไม่พอใจกับข้อมูลฟิชเชอร์มาตรการและวิธีการที่เป็นประโยชน์ นอกจากนี้ความสัมพันธ์กับขอบเขตแครมเมอร์ - ราวไม่ชัดเจนสำหรับฉัน
ใครสามารถช่วยอธิบายแนวคิดเหล่านี้ได้ด้วยตนเอง?
ฉันไม่พอใจกับข้อมูลฟิชเชอร์มาตรการและวิธีการที่เป็นประโยชน์ นอกจากนี้ความสัมพันธ์กับขอบเขตแครมเมอร์ - ราวไม่ชัดเจนสำหรับฉัน
ใครสามารถช่วยอธิบายแนวคิดเหล่านี้ได้ด้วยตนเอง?
คำตอบ:
ที่นี่ฉันจะอธิบายว่าทำไมความแปรปรวนเชิงซีมิกของตัวประมาณความน่าจะเป็นสูงสุดคือขอบเขตล่างของแครมเมอร์ - ราว หวังว่านี่จะให้ข้อมูลเชิงลึกเกี่ยวกับความเกี่ยวข้องของข้อมูลฟิชเชอร์
การอนุมานทางสถิติดำเนินไปด้วยการใช้ฟังก์ชันความน่าจะเป็นที่คุณสร้างจากข้อมูล ประมาณการจุดเป็นค่าซึ่งจะเพิ่มtheta) เครื่องมือประมาณเป็นตัวแปรสุ่ม แต่ช่วยให้ตระหนักได้ว่าฟังก์ชันความน่าจะเป็นคือ "เส้นโค้งแบบสุ่ม"θ L ( θ ) θ L ( θ )
ที่นี่เราสันนิษฐานว่าข้อมูลที่ดึงมาจากการแจกจ่ายและการกำหนดโอกาส L ( θ ) = 1
พารามิเตอร์มีคุณสมบัติที่จะช่วยเพิ่มมูลค่าของความน่าจะเป็น "ของจริง" ที่theta) อย่างไรก็ตามฟังก์ชั่นความน่าจะเป็น "สังเกต"ซึ่งสร้างขึ้นจากข้อมูลจะถูก "ปิด" เล็กน้อยจากโอกาสที่แท้จริง ทว่าคุณสามารถจินตนาการได้ว่าเมื่อขนาดของกลุ่มตัวอย่างเพิ่มขึ้นความน่าจะเป็นที่ "สังเกต" จะแปรเปลี่ยนเป็นรูปร่างของเส้นโค้งความเป็นไปได้ที่แท้จริง เช่นเดียวกับที่มาของความเป็นไปได้เกี่ยวกับพารามิเตอร์ฟังก์ชั่นคะแนน\ (เรื่องสั้นสั้น ๆ ข้อมูลฟิชเชอร์เป็นตัวกำหนดว่าฟังก์ชันคะแนนที่สังเกตได้เร็วเพียงใดมาบรรจบกับรูปร่างของฟังก์ชันคะแนนจริงE L ( θ ) L ( θ ) ∂ L / ∂ θ
ที่ขนาดตัวอย่างใหญ่เราสันนิษฐานว่าการประมาณความน่าจะเป็นสูงสุดนั้นใกล้กับมาก เราซูมเข้าไปในย่านเล็ก ๆ รอบ ๆและเพื่อให้ฟังก์ชันความน่าจะเป็นคือ "กำลังสองในพื้นที่" θθ θ
ที่นั่นคือจุดที่ฟังก์ชันคะแนนปริภูมิกำเนิด ในภูมิภาคนี้มีขนาดเล็กที่เราปฏิบัติต่อฟังก์ชั่นคะแนนเป็นสายหนึ่งที่มีความลาดชันและ สุ่มตัดที่\เรารู้จากสมการของเส้นตรงนั้น ∂L/∂θขθ
หรือ
จากความสอดคล้องของตัวประมาณ MLE เรารู้ว่า
ในขีด จำกัด
ดังนั้น asymptotically
แต่กลับกลายเป็นว่าความลาดชันที่แตกต่างกันมากน้อยกว่าการสกัดกั้นและ asymptotically เราสามารถรักษาฟังก์ชั่นคะแนนที่มีความลาดชันอย่างต่อเนื่องในพื้นที่ใกล้เคียงขนาดเล็กทั่ว\ดังนั้นเราสามารถเขียน
ดังนั้นค่าของและคืออะไร? ปรากฎว่าเนื่องจากความบังเอิญทางคณิตศาสตร์ที่ยิ่งใหญ่พวกเขามีปริมาณเท่ากันมาก (โมดูโลเครื่องหมายลบ) ข้อมูลฟิชเชอร์n V a r ( b )
ดังนั้น,
1/I(θ)
วิธีหนึ่งที่ฉันเข้าใจข้อมูลการประมงคือตามคำจำกัดความต่อไปนี้:
ข้อมูลฟิชเชอร์สามารถเขียนด้วยวิธีนี้เมื่อใดก็ตามที่ความหนาแน่นแตกต่างกันสองครั้ง ถ้าพื้นที่ตัวอย่างไม่ได้ขึ้นอยู่กับพารามิเตอร์เราสามารถใช้สูตรอินทิกรัลไลบนิซเพื่อแสดงว่าเทอมแรกเป็นศูนย์ (แยกความแตกต่างของทั้งสองด้านสองครั้งและคุณจะได้รับศูนย์) และคำที่สองคือคำจำกัดความ "มาตรฐาน" ฉันจะเอากรณีเมื่อเทอมแรกเป็นศูนย์ กรณีที่ไม่เป็นศูนย์ก็ไม่ได้ใช้ในการทำความเข้าใจกับข้อมูลชาวประมงมากนักX θ ∫ Xฉ( x | θ ) d x = 1
ตอนนี้เมื่อคุณทำการประเมินความเป็นไปได้สูงสุด (แทรก "เงื่อนไขปกติ" ที่นี่) ที่คุณตั้งไว้
และแก้ปัญหาสำหรับ\ดังนั้นอนุพันธ์อันดับสองบอกว่าการไล่ระดับสีเปลี่ยนไปเร็วแค่ไหนและในแง่ "ไกลแค่ไหน"สามารถออกจาก MLE ได้โดยไม่ต้องทำการเปลี่ยนแปลงที่เห็นได้ชัดเจนในด้านขวามือของสมการข้างต้น อีกวิธีหนึ่งที่คุณสามารถนึกได้ก็คือการจินตนาการ "ภูเขา" ที่วาดลงบนกระดาษ - นี่คือฟังก์ชั่นบันทึกความเป็นไปได้ การแก้สมการข้างต้น MLE บอกคุณที่จุดสูงสุดของภูเขานี้ตั้งอยู่เป็นหน้าที่ของตัวแปรสุ่มxอนุพันธ์อันดับสองบอกคุณว่าภูเขาสูงชันมากแค่ไหนในแง่หนึ่งจะบอกคุณว่าการหาจุดสูงสุดของภูเขานั้นง่ายแค่ไหน ข้อมูลฟิชเชอร์มาจากการใช้ความชันสูงสุดของจุดสูงสุดดังนั้นจึงมีการตีความ "ข้อมูลล่วงหน้า" เล็กน้อยθ x
สิ่งหนึ่งที่ฉันยังคงอยากรู้อยากเห็นก็คือว่ามันเป็นไปได้อย่างไรและไม่ใช่วิธีชันชัน - ฟังก์ชั่นอื่น ๆ ของความน่าจะเป็นที่น่าเบื่อ (อาจจะเกี่ยวข้องกับการให้คะแนน "เหมาะสม" ในทฤษฎีการตัดสินใจหรือ? ?)
ข้อมูลฟิชเชอร์ยัง "แสดง" ในการวิเคราะห์เชิงเส้นประสาทหลายอย่างเนื่องจากสิ่งที่รู้จักกันในชื่อการประมาณลาปลาซ สิ่งนี้โดยพื้นฐานแล้วเนื่องจากความจริงที่ว่าฟังก์ชั่นใด ๆ ที่มีการเพิ่มสูงสุดเพียงครั้งเดียวเพื่อให้ได้พลังงานที่สูงกว่าและสูงกว่าจะเข้าสู่ฟังก์ชันเกาส์เซียน (คล้ายกับทฤษฎีขีด จำกัด กลาง ทั่วไป). ดังนั้นเมื่อคุณมีตัวอย่างจำนวนมากคุณจะอยู่ในตำแหน่งนี้อย่างมีประสิทธิภาพและคุณสามารถเขียน:
และเมื่อคุณเทย์เลอร์ขยายโอกาสในการบันทึกเกี่ยวกับ MLE:
ซึ่งจำนวนเงินที่ประมาณโดยปกติที่ดีของการแทนที่ผลรวมโดยอินทิกรัล แต่สิ่งนี้ต้องการให้ข้อมูลมีความเป็นอิสระ ดังนั้นสำหรับกลุ่มตัวอย่างอิสระขนาดใหญ่ (ที่ได้รับ ) คุณจะเห็นว่าข้อมูลฟิชเชอร์เป็นวิธีที่ตัวแปร MLE คือสำหรับค่าต่างๆของ MLE
นี่เป็นบทความที่เข้าใจง่ายที่สุดที่ฉันเคยเห็น:
ขอบเขตถูกอธิบายโดยการเปรียบเทียบของอาดัมและเอวาในสวนเอเดนโยนเหรียญเพื่อดูว่าใครจะกินผลไม้และจากนั้นพวกเขาถามตัวเองว่ามีตัวอย่างขนาดใหญ่เท่าใดที่จำเป็นเพื่อให้ได้ความแม่นยำในระดับหนึ่ง แล้วพวกเขาก็ค้นพบสิ่งที่ถูกผูกไว้ ...
เรื่องราวที่ดีกับข้อความที่ลึกซึ้งเกี่ยวกับความเป็นจริงแน่นอน
แม้ว่าคำอธิบายที่ให้ไว้ข้างต้นนั้นน่าสนใจมากและฉันก็รู้สึกสนุกกับมัน แต่ฉันรู้สึกว่าธรรมชาติของ Cramer-Rao Lower Bound อธิบายได้ดีที่สุดสำหรับฉันจากมุมมองทางเรขาคณิต สัญชาตญาณนี่คือบทสรุปของแนวคิดของวงรีเข้มข้นจากบทที่ 6 ของหนังสือเล่ม Scharf เกี่ยวกับสถิติการประมวลผลสัญญาณ
พิจารณาประมาณการเป็นกลางใด ๆ ของ\} นอกจากนี้สมมติว่าประมาณการมีการกระจายแบบเกาส์ที่มีความแปรปรวนSigma} ภายใต้เงื่อนไขเหล่านี้การกระจายของเป็นสัดส่วนกับ:
theta}))
ตอนนี้คิดว่าแปลงรูปร่างของการกระจายนี้สำหรับ 2 ข้อ จำกัด ขอบเขตบนของความน่าจะเป็นของ (กล่าวคือ ) จะส่งผลให้รูปไข่อยู่กึ่งกลางที่มีรัศมีคงRมันง่ายที่จะแสดงให้เห็นว่ามีความสัมพันธ์แบบหนึ่งต่อหนึ่งระหว่างรัศมีของทรงรีและความน่าจะเป็นที่ต้องการP_rกล่าวอีกนัยหนึ่งอยู่ใกล้กับภายในรูปวงรีที่กำหนดโดยรัศมีด้วยความน่าจะเป็นθ ∫ F ( θ ) d θ ≤ P R θ R R P R θ θ R P R. ellipsoid นี้เรียกว่า ellipsoid ที่มีความเข้มข้น
เมื่อพิจารณาจากคำอธิบายข้างต้นเราสามารถพูดต่อไปนี้เกี่ยวกับ CRLB ในบรรดาผู้ประมาณค่าที่เป็นกลางทั้งหมด CRLB แสดงตัวประมาณมีความแปรปรวนร่วมซึ่งสำหรับความน่าจะเป็นคงที่ของ "ความใกล้ชิด" (ตามที่กำหนดไว้ด้านบน) ความเข้มข้นรูปไข่ รูปด้านล่างแสดงภาพประกอบ 2D (ได้รับแรงบันดาลใจจากภาพประกอบในหนังสือของ Scharf )ΣคRลิตรขPR