คำถามติดแท็ก bias

ความแตกต่างระหว่างค่าที่คาดหวังของตัวประมาณค่าพารามิเตอร์และค่าจริงของพารามิเตอร์ อย่าใช้แท็กนี้เพื่ออ้างถึง [bias-term] / [bias-node] (เช่น [intercept])

1
อะไรคือความแตกต่างระหว่างความเป็นกลางและความสอดคล้องของ asymptotic?
แต่ละคนหมายความถึงกันและกันหรือไม่? ถ้าไม่เป็นเช่นนั้น ทำไม / ทำไมไม่ ปัญหานี้ขึ้นมาเพื่อตอบสนองต่อความคิดเห็นในคำตอบที่ผมโพสต์ที่นี่ แม้ว่า google การค้นหาคำที่เกี่ยวข้องไม่ได้ผลิตอะไรที่ดูเหมือนมีประโยชน์เป็นพิเศษ แต่ฉันก็สังเกตเห็นคำตอบในการคำนวณทางคณิตศาสตร์ อย่างไรก็ตามฉันคิดว่าคำถามนี้เหมาะสำหรับไซต์นี้ด้วย แก้ไขหลังจากอ่านความคิดเห็น เทียบกับคำตอบ math.stackexchange ผมหลังจากที่บางสิ่งบางอย่างเพิ่มเติมในเชิงลึกครอบคลุมบางส่วนของปัญหาการจัดการใน@whuber ด้ายความคิดเห็นที่เชื่อมโยง นอกจากนี้ตามที่ฉันเห็นมันคำถาม math.stackexchange แสดงให้เห็นว่าความสอดคล้องไม่ได้หมายความถึงความเป็นกลางทาง asymptotically แต่ไม่ได้อธิบายอะไรมากหากเกิดอะไรขึ้น OP ที่นั่นยังยอมรับว่าความเป็นกลางทางซีมโทติคนั้นไม่ได้บ่งบอกถึงความมั่นคงและดังนั้นผู้ตอบคำถามเพียงคนเดียวไม่ได้อธิบายว่าทำไมถึงเป็นเช่นนี้

2
อายุเฉลี่ยของอคติสำหรับการรับรองชื่อปรมาจารย์ตามกลุ่มอายุหรือไม่
มันได้รับการรู้จักกันสำหรับค่อนข้างบางเวลานั้นอายุที่อายุน้อยที่สุดที่ผู้เล่นหมากรุกจะมีคุณสมบัติสำหรับชื่อแกรนด์มาสเตอร์ได้ลดลงอย่างมีนัยสำคัญตั้งแต่ปี 1950 และในปัจจุบันมีอยู่เกือบ 30 ผู้เล่นที่กลายเป็นแกรนด์มาสเตอร์ก่อนวันเกิดปีที่ อย่างไรก็ตามมีคำถามเกี่ยวกับ Chess Stack Exchange ที่ถามว่าอายุเฉลี่ยของการเป็นปรมาจารย์คืออะไร? . มีคนโพสต์คำตอบที่เขา (ฉันคิดว่ามันเป็นเขา) ดูที่หกส่วนย่อยของ grandmasters และพบผลลัพธ์ต่อไปนี้: สำหรับผู้เล่นที่เกิดหลังปี 1945 ค่าเฉลี่ยจะสูงกว่า 26 ปีเล็กน้อย สำหรับผู้เล่นที่เกิดหลังปี 1970 ค่าเฉลี่ยจะสูงกว่า 23 ปีเล็กน้อย สำหรับผู้เล่นที่เกิดหลังปี 1975 ค่าเฉลี่ยจะสูงกว่าอายุ 22 ปีเล็กน้อย สำหรับผู้เล่นที่เกิดหลังปี 1980 ค่าเฉลี่ยอยู่ที่ 21 ปี สำหรับผู้เล่นที่เกิดหลังปี 1985 ค่าเฉลี่ยจะขี้อายเพียง 20 ปี สำหรับผู้เล่นที่เกิดหลังปี 2533 อายุเฉลี่ย 18.5 ปี (ยังไม่ชัดเจนสำหรับฉันเลยว่ากลุ่มแรกมีgrandmasters ทั้งหมดที่เกิดหลังปี 1945 (ซึ่งทำให้มันเป็น …

2
ตัวประมาณเบย์นั้นมีภูมิคุ้มกันต่อการเลือกอคติ
ตัวประมาณของ Bayes มีภูมิคุ้มกันต่อการเลือกอคติหรือไม่? เอกสารส่วนใหญ่ที่กล่าวถึงการประมาณค่าในมิติที่สูงเช่นข้อมูลลำดับจีโนมทั้งหมดมักจะทำให้เกิดปัญหาอคติในการคัดเลือก ความลำเอียงที่เลือกเกิดขึ้นจากข้อเท็จจริงที่ว่าแม้ว่าเรามีผู้ทำนายที่มีศักยภาพหลายพันคนเท่านั้นที่จะได้รับการคัดเลือกเพียงไม่กี่คนเท่านั้น ดังนั้นกระบวนการจึงมีสองขั้นตอน: (1) เลือกชุดย่อยของตัวทำนาย (2) ทำการอนุมานบนชุดที่เลือกเช่นประมาณอัตราต่อรอง Dawid ในกระดาษที่ขัดกันในปี 1994 ของเขามุ่งเน้นไปที่ตัวประมาณค่าที่เป็นกลางและตัวประมาณ Bayes เขาลดความยุ่งยากของปัญหาในการเลือกเอฟเฟกต์ที่ใหญ่ที่สุดซึ่งอาจเป็นผลการรักษา จากนั้นเขาก็บอกว่าตัวประมาณที่ไม่เอนเอียงได้รับผลกระทบจากอคติการคัดเลือก เขาใช้ตัวอย่าง: สมมติว่า จากนั้นแต่ละอันZi∼N(δi,1),i=1,…,NZi∼N(δi,1),i=1,…,N Z_i\sim N(\delta_i,1),\quad i=1,\ldots,N ZiZiZ_iเป็นกลางสำหรับ\ปล่อย , ตัวประมาณ อย่างไรก็ตามเอนเอียง ( บวก) สำหรับ\ สูงสุด \ {\ delta_1 \ delta_2 \ ldots \ delta_N \} ข้อความนี้สามารถพิสูจน์ได้อย่างง่ายดายด้วยความไม่เท่าเทียมของ Jensen ดังนั้นหากเรารู้ว่าi _ {\ max}ดัชนีของ\ delta_i ที่ใหญ่ที่สุดเราจะใช้Z_ {i …

1
ตัวแปรเครื่องมือจัดการกับอคติการเลือกอย่างไร
ฉันสงสัยว่าตัวแปรเครื่องมือจัดการอคติการเลือกอย่างไรในการถดถอย นี่คือตัวอย่างที่ฉันกำลังพูดถึง: ในเศรษฐมิติที่ไม่เป็นอันตรายส่วนใหญ่ผู้เขียนอภิปรายเกี่ยวกับการถดถอย IV ที่เกี่ยวข้องกับการรับราชการทหารและรายได้ในภายหลัง คำถามคือ "การรับราชการในกองทัพเพิ่มหรือลดรายได้ในอนาคตหรือไม่" พวกเขาสำรวจคำถามนี้ในบริบทของสงครามเวียดนาม ฉันเข้าใจว่าการรับราชการทหารไม่สามารถสุ่มมอบหมายได้และนี่เป็นปัญหาสำหรับการอนุมานเชิงสาเหตุ ในการแก้ไขปัญหานี้ผู้วิจัยใช้ร่างเกณฑ์ (เช่นใน "หมายเลขร่างของคุณเรียกว่า") เป็นเครื่องมือสำหรับการรับราชการทหารที่แท้จริง ที่ทำให้ความรู้สึก: ร่างเวียดนามสุ่มมอบหมายคนอเมริกันหนุ่มทหาร (ในทางทฤษฎี - ไม่ว่านาวิกเสิร์ฟจริงสัมผัสกับคำถามของฉัน) เงื่อนไข IV อื่น ๆ ของเราดูแข็งแกร่ง: การมีสิทธิ์เข้าร่วมร่างและการเกณฑ์ทหารที่แท้จริงนั้นมีความสัมพันธ์กันในทางบวก นี่คือคำถามของฉัน ดูเหมือนว่าคุณจะได้รับอคติในการเลือกตนเอง: บางทีเด็ก ๆ ที่ร่ำรวยขึ้นอาจออกจากการรับใช้ในเวียดนามแม้ว่าจะมีการเรียกหมายเลขร่าง (ถ้าไม่ใช่อย่างนั้นจริง ๆ ลองทำเพื่อคำถามของฉัน) หากการเลือกตนเองนี้สร้างอคติเชิงระบบภายในตัวอย่างของเราตัวแปรเครื่องมือของเราจะจัดการอคตินี้อย่างไร เราต้อง จำกัด ขอบเขตการอนุมานของเราให้แคบลงหรือไม่ "ประเภทของคนที่ไม่สามารถหลบหนีจากร่างได้" หรือ IV ก็กอบกู้บางส่วนของการอนุมานของเรา? หากใครสามารถอธิบายวิธีการทำงานนี้ฉันจะขอบคุณมาก

4
มีการทดสอบการตั้งค่าตัวแปรที่ละเว้นใน OLS หรือไม่
ฉันทราบเกี่ยวกับการทดสอบการตั้งค่าใหม่ของ Ramsey ซึ่งอาจตรวจพบการพึ่งพาแบบไม่เชิงเส้น อย่างไรก็ตามหากคุณเพิ่งโยนหนึ่งในสัมประสิทธิ์การถดถอย (เพียงแค่การอ้างอิงเชิงเส้น) คุณอาจได้รับอคติขึ้นอยู่กับความสัมพันธ์ เห็นได้ชัดว่านี่ไม่ถูกตรวจพบโดยการทดสอบการรีเซ็ต ฉันไม่พบการทดสอบสำหรับกรณีนี้ แต่คำสั่งนี้: "คุณไม่สามารถทดสอบ OVB ยกเว้นโดยรวมถึงตัวแปรที่อาจตัดทิ้ง" มันอาจเป็นข้อความที่สมเหตุสมผลใช่มั้ย

2
ทำไมต้นไม้ที่ถูกถุง / ต้นไม้ป่าสุ่มมีอคติสูงกว่าต้นไม้ตัดสินใจเดี่ยว?
หากเราพิจารณาแผนภูมิการตัดสินใจที่โตเต็มที่ (เช่นแผนผังการตัดสินใจที่ไม่มีการแบ่ง) มันมีความแปรปรวนสูงและมีอคติต่ำ การบรรจุถุงและป่าสุ่มใช้โมเดลความแปรปรวนสูงเหล่านี้และรวมเข้าด้วยกันเพื่อลดความแปรปรวนและเพิ่มความแม่นยำในการทำนาย ทั้งการบรรจุถุงและการสุ่มป่าใช้การสุ่มตัวอย่าง Bootstrap และตามที่อธิบายไว้ใน "องค์ประกอบของการเรียนรู้ทางสถิติ" สิ่งนี้จะเพิ่มความลำเอียงในต้นไม้ต้นเดียว นอกจากนี้เนื่องจากวิธีการสุ่มฟอเรสต์ จำกัด ตัวแปรที่อนุญาตให้แยกในแต่ละโหนดอคติสำหรับฟอเรสต์แบบสุ่มเดียวจะเพิ่มมากขึ้น ดังนั้นความแม่นยำในการทำนายจะเพิ่มขึ้นหากการเพิ่มขึ้นของอคติของต้นไม้ต้นเดียวในการบรรจุหีบห่อและการสุ่มป่าไม่ได้ "เกินความจริง" การลดความแปรปรวน สิ่งนี้นำฉันไปสู่คำถามสองข้อต่อไปนี้: 1) ฉันรู้ว่าด้วยการสุ่มตัวอย่าง bootstrap เราจะ (เกือบทุกครั้ง) มีการสังเกตแบบเดียวกันในตัวอย่าง bootstrap แต่ทำไมสิ่งนี้นำไปสู่การเพิ่มอคติของต้นไม้แต่ละต้นในป่าที่ห่อหุ้ม / สุ่ม 2) นอกจากนี้ทำไมข้อ จำกัด ของตัวแปรที่มีให้แยกในแต่ละการแยกทำให้มีอคติสูงกว่าในต้นไม้แต่ละต้นในป่าสุ่ม

2
ข้อดีและข้อเสียของการ bootstrapping
ฉันเพิ่งได้เรียนรู้เกี่ยวกับแนวคิดของการเริ่มระบบและคำถามไร้เดียงสามาถึงใจ: ถ้าเราสามารถสร้างตัวอย่าง bootstrap จำนวนมากของข้อมูลของเราทำไมต้องรำคาญที่จะได้รับข้อมูล "ของจริง" เพิ่มเติมหรือไม่ ฉันคิดว่าฉันมีคำอธิบายโปรดบอกฉันว่าฉันถูกต้องหรือไม่: ฉันคิดว่ากระบวนการ bootstrapping ช่วยลดความแปรปรวน แต่ถ้าชุดข้อมูลดั้งเดิมของฉันคือ BIASED กว่าที่ฉันติดอยู่กับความแปรปรวนต่ำและอคติสูง ฉันกำลังพูด.

3
ทำไม OLS ประมาณค่าสัมประสิทธิ์ AR (1) เอนเอียง?
ฉันพยายามที่จะเข้าใจว่าทำไม OLS จึงให้ตัวประมาณค่าแบบอคติของกระบวนการ AR (1) พิจารณา ในรูปแบบนี้มีการละเมิด exogeneity ที่เข้มงวดเช่นและมีความสัมพันธ์กัน แต่และไม่มีความสัมพันธ์กัน แต่ถ้าสิ่งนี้เป็นจริงแล้วเหตุใดความเรียบง่ายที่ตามมาจึงไม่เกิดขึ้น Yเสื้อεเสื้อ= α + βYt - 1+εเสื้อ,~ฉันฉันdยังไม่มีข้อความ( 0 , 1 )Yเสื้อ=α+βYเสื้อ-1+εเสื้อ,εเสื้อ~ผมผมdยังไม่มีข้อความ(0,1). \begin{aligned} y_{t} &= \alpha + \beta y_{t-1} + \epsilon_{t}, \\ \epsilon_{t} &\stackrel{iid}{\sim} N(0,1). \end{aligned} Yเสื้อYเสื้อy_tεเสื้อεเสื้อ\epsilon_tYt - 1Yเสื้อ-1y_{t-1}εเสื้อεเสื้อ\epsilon_tPLIM β^=โคฟ(Yเสื้อ,Yt - 1)วาร์(Yt - 1)=Cov ( α + βYt - 1+εเสื้อ,Yt - …

4
เราจะอธิบายได้อย่างไรว่าตัวประเมินที่ไม่เอนเอียงคืออะไรสำหรับคนธรรมดา?
สมมติว่าเป็นประมาณการที่เป็นกลางสำหรับ\แล้วแน่นอน\ θE[ θ |θ]=θθ^θ^\hat{\theta}θθ\thetaE[θ^∣θ]=θE[θ^∣θ]=θ\mathbb{E}[\hat{\theta} \mid \theta] = \theta เราอธิบายเรื่องนี้กับคนทั่วไปได้อย่างไร? ในอดีตสิ่งที่ฉันพูดคือถ้าคุณเฉลี่ยค่าของเป็นจำนวนมากเมื่อขนาดตัวอย่างใหญ่ขึ้นคุณจะได้ประมาณดีขึ้น θθ^θ^\hat{\theta}θθ\theta สำหรับฉันแล้วนี่เป็นปัญหา ฉันคิดว่าสิ่งที่ฉันอธิบายจริง ๆ นี่คือปรากฏการณ์ของการเป็นแบบไม่ลำเอียงแบบไม่มีสัญญาณแทนที่จะเป็นแบบไม่เอนเอียงคือ ที่\ hat {\ theta}มีแนวโน้มที่จะขึ้นอยู่กับnlimn→∞E[θ^∣θ]=θ,limn→∞E[θ^∣θ]=θ,\lim_{n \to \infty}\mathbb{E}[\hat{\theta} \mid \theta] = \theta\text{,}θ^θ^\hat{\theta}nnn ดังนั้นเราจะอธิบายได้อย่างไรว่าตัวประมาณที่เป็นกลางคืออะไรกับคนธรรมดา?

3
ทำไมประมาณการ CV ของข้อผิดพลาดในการทดสอบต่ำกว่าข้อผิดพลาดการทดสอบจริง?
ฉันเข้าใจว่าการประเมินการตรวจสอบข้ามข้อผิดพลาดของ k-fold มักจะประเมินข้อผิดพลาดการทดสอบจริงต่ำเกินไป ฉันสับสนว่าทำไมในกรณีนี้ ฉันเห็นว่าทำไมข้อผิดพลาดในการฝึกอบรมจึงต่ำกว่าข้อผิดพลาดในการทดสอบ - เนื่องจากคุณกำลังฝึกอบรมแบบจำลองในข้อมูลเดียวกันกับที่คุณประเมินข้อผิดพลาด! แต่นั่นไม่ใช่กรณีของการตรวจสอบข้าม - รอยพับที่คุณวัดความผิดพลาดนั้นจะถูกทิ้งไว้โดยเฉพาะในระหว่างกระบวนการฝึกอบรม นอกจากนี้ถูกต้องหรือไม่ที่จะบอกว่าการประเมินการตรวจสอบข้ามข้อผิดพลาดของการทดสอบนั้นมีความลำเอียงลดลง?

2
อคติเป็นทรัพย์สินของผู้ประมาณค่าหรือจากการประมาณค่าโดยเฉพาะหรือไม่?
เป็นตัวอย่างที่ผมมักจะพบนักเรียนที่รู้ว่าสังเกตเป็นประมาณการลำเอียงของประชากร 2 จากนั้นเมื่อเขียนรายงานพวกเขาพูดเช่น:R2R2R^2R2R2R^2 "ฉันคำนวณ Observedและ Adjustedและพวกมันก็ค่อนข้างคล้ายกันโดยแนะนำอคติเพียงเล็กน้อยในค่า Observedเราได้รับ"R2R2R^2R2R2R^2R2R2R^2 ฉันได้รับโดยทั่วไปเมื่อเราพูดถึงอคติเรามักพูดถึงคุณสมบัติของตัวประมาณมากกว่าการประมาณโดยเฉพาะ อย่างไรก็ตามข้อความที่ยกมานั้นเป็นคำที่ใช้ผิดวัตถุประสงค์หรือไม่

1
Bootstrap: การประเมินอยู่นอกช่วงความมั่นใจ
ฉันทำการ bootstrapping ด้วยโมเดลผสม (มีหลายตัวแปรที่มีการโต้ตอบและหนึ่งตัวแปรสุ่ม) ฉันได้รับผลลัพธ์นี้ (บางส่วนเท่านั้น): > boot_out ORDINARY NONPARAMETRIC BOOTSTRAP Call: boot(data = a001a1, statistic = bootReg, R = 1000) Bootstrap Statistics : original bias std. error t1* 4.887383e+01 -1.677061e+00 4.362948e-01 t2* 3.066825e+01 1.264024e+00 5.328387e-01 t3* 8.105422e+01 2.368599e+00 6.789091e-01 t4* 1.620562e+02 4.908711e+00 1.779522e+00 ...... ตอนนี้ฉันต้องการได้รับช่วงความเชื่อมั่นสำหรับการสกัดกั้น: > boot.ci(boot_out,type=c("norm","basic","perc"), index=1) BOOTSTRAP …

1
ตัวประมาณที่ลดผลรวมถ่วงน้ำหนักของอคติกำลังสองและความแปรปรวนเข้ากับทฤษฎีการตัดสินใจได้อย่างไร
ตกลง - ข้อความต้นฉบับของฉันไม่สามารถตอบสนองได้ ขอผมใส่คำถามที่ต่างออกไป ฉันจะเริ่มต้นด้วยการอธิบายความเข้าใจของฉันเกี่ยวกับการประเมินจากมุมมองทางทฤษฎีการตัดสินใจ ฉันไม่มีการฝึกฝนอย่างเป็นทางการและจะไม่ทำให้ฉันประหลาดใจถ้าความคิดของฉันมีข้อบกพร่อง สมมติว่าเรามีบางฟังก์ชั่นการสูญเสีย(x)) การสูญเสียที่คาดหวังคือความเสี่ยง (บ่อยครั้ง):L(θ,θ^(x))L(θ,θ^(x))L(\theta,\hat\theta(x)) R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(\theta,\hat\theta(x))=\int L(\theta,\hat\theta(x))\mathcal{L}(\theta,\hat\theta(x))dx, โดยที่คือความเป็นไปได้; และความเสี่ยงของ Bayes คือความเสี่ยงที่พบบ่อย:L(θ,θ^(x))L(θ,θ^(x))\mathcal{L}(\theta,\hat\theta(x)) r(θ,θ^(x))=∫∫R(θ,θ^(x))π(θ)dxdθ,r(θ,θ^(x))=∫∫R(θ,θ^(x))π(θ)dxdθ,r(\theta,\hat\theta(x))=\int\int R(\theta,\hat\theta(x))\pi (\theta)dxd\theta, โดยที่เป็นของเราก่อนหน้าπ(θ)π(θ)\pi (\theta) โดยทั่วไปแล้วเราพบที่ย่อและสิ่งนี้ได้ผลดี; ยิ่งกว่านั้นทฤษฎีบทของ Fubini ก็นำมาใช้และเราสามารถกลับลำดับการรวมเพื่อให้ใด ๆที่ย่อเป็นอิสระจากคนอื่นทั้งหมด วิธีนี้หลักการความน่าจะเป็นไม่ได้ถูกละเมิดและเราสามารถรู้สึกดีเกี่ยวกับการเป็นแบบเบย์เป็นต้นθ^(x)θ^(x)\hat\theta(x)rrrθ^(x)θ^(x)\hat\theta(x)rrr ตัวอย่างเช่นเนื่องจากการสูญเสียข้อผิดพลาดกำลังสองที่คุ้นเคยความเสี่ยงของเราที่พบบ่อยคือความคลาดเคลื่อนกำลังสองเฉลี่ยหรือผลรวม ความเอนเอียงและความแปรปรวนและความเสี่ยงของเบย์คือผลรวมที่คาดหวังของความอคติกำลังสองและความแปรปรวนตามที่เราคาดไว้ก่อนหน้านั่นคือการสูญเสียด้านหลังL(θ,θ^(x))=(θ−θ^(x))2,L(θ,θ^(x))=(θ−θ^(x))2,L(\theta,\hat\theta(x))=(\theta- \hat\theta(x))^2, นี่ดูเหมือนจะสมเหตุสมผลสำหรับฉัน (แม้ว่าฉันอาจจะผิดมาก); แต่ไม่ว่าในกรณีใดสิ่งต่าง ๆ ทำให้ฉันรู้สึกไม่ถึงวัตถุประสงค์อื่น ๆ ตัวอย่างเช่นสมมติว่าแทนที่จะลดผลรวมของอคติและความแปรปรวนที่ถ่วงน้ำหนักเท่า ๆ กันฉันต้องการลดผลรวมน้ำหนักที่ไม่เท่ากันนั่นคือฉันต้องการที่ย่อเล็กสุด:θ^(x)θ^(x)\hat\theta(x) (E[θ^(x)]−θ)2+kE[(θ^(x)−E[θ^(x)])2],(E[θ^(x)]−θ)2+kE[(θ^(x)−E[θ^(x)])2],(\mathbb{E}[\hat\theta(x)]-\theta)^2+k\mathbb{E}[(\hat\theta(x)-\mathbb{E}[\hat\theta(x)])^2], โดยที่คือค่าคงที่จริงที่เป็นบวก (นอกเหนือจาก 1)kkk ฉันมักจะอ้างถึงผลรวมเช่นนี้เป็น "ฟังก์ชันวัตถุประสงค์" แม้ว่ามันอาจเป็นไปได้ว่าฉันกำลังใช้คำนั้นอย่างไม่ถูกต้อง คำถามของฉันไม่เกี่ยวกับวิธีค้นหาวิธีแก้ปัญหา - การค้นหาที่ลดฟังก์ชันวัตถุประสงค์นี้ให้ทำได้เป็นตัวเลข - แต่คำถามของฉันคือสองเท่า:θ^(x)θ^(x)\hat\theta(x) …

1
อคติของตัวประมาณความน่าจะเป็นสูงสุดสำหรับการถดถอยโลจิสติก
ฉันต้องการที่จะเข้าใจข้อเท็จจริงบางประการเกี่ยวกับตัวประมาณความน่าจะเป็นสูงสุด (MLEs) สำหรับการถดถอยโลจิสติก โดยทั่วไป MLE สำหรับการถดถอยโลจิสติกนั้นมีอคติหรือไม่? ฉันจะพูดว่า "ใช่" ตัวอย่างเช่นฉันรู้ว่ามิติของตัวอย่างนั้นเกี่ยวข้องกับอคติของ MLEs คุณรู้ตัวอย่างเบื้องต้นของปรากฏการณ์นี้หรือไม่? ถ้า MLE นั้นเอนเอียงเป็นจริงหรือไม่ที่เมทริกซ์ความแปรปรวนร่วมของ MLEs เป็นค่าผกผันของ Hessian ของฟังก์ชันความน่าจะเป็นสูงสุด? แก้ไข : ฉันได้พบสูตรนี้ค่อนข้างบ่อยและไม่มีหลักฐานใด ๆ ; ดูเหมือนจะเป็นทางเลือกที่ค่อนข้างอิสระสำหรับฉัน

2
การย่อยสลายความแปรปรวนแบบอคติ: คำที่คาดการณ์ข้อผิดพลาดกำลังสองน้อยกว่าข้อผิดพลาดลดลง
Hastie และคณะ "องค์ประกอบของการเรียนรู้ทางสถิติ" (2009) พิจารณากระบวนการสร้างข้อมูล กับและvarepsilon}Y= f( X) + εY=f(X)+ε Y = f(X) + \varepsilon E (ε)=0E(ε)=0\mathbb{E}(\varepsilon)=0Var ( ε ) =σ2εVar(ε)=σε2\text{Var}(\varepsilon)=\sigma^2_{\varepsilon} พวกเขานำเสนอการสลายตัวอคติ - แปรปรวนต่อไปนี้ของข้อผิดพลาดคาดการณ์กำลังสองที่จุด (หน้า 223 สูตร 7.9): ในของฉัน งานของตัวเองฉันไม่ได้ระบุแต่รับการคาดการณ์แบบสุ่มแทน (ถ้าเกี่ยวข้อง) คำถาม:ฉันกำลังมองหาคำว่า หรือแม่นยำยิ่งขึ้น x0x0x_0ข้อผิดพลาด(x0)= E ( [ y-ฉ^(x0)]2|X=x0)= ...=σ2ε+อคติ2(ฉ^(x0) ) + Var (ฉ^(x0) )= ข้อผิดพลาดลดลง +อคติ2+ แปรปรวนErr(x0)=E([y−f^(x0)]2|X=x0)=…=σε2+Bias2(f^(x0))+Var(f^(x0))=Irreducible error+Bias2+Variance.\begin{aligned} \text{Err}(x_0) &= …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.