คำถามติดแท็ก frequentist

ในวิธีการอนุมานเพื่ออนุมานขั้นตอนทางสถิติได้รับการประเมินโดยการปฏิบัติงานของพวกเขาในระยะยาวของการทำซ้ำของกระบวนการที่ถือว่าเป็นการสร้างข้อมูล

5
Bayesians เคยโต้แย้งว่ามีกรณีที่วิธีการของพวกเขาสรุป / ทับซ้อนกับวิธีการที่ใช้บ่อยหรือไม่?
Bayesians เคยยืนยันว่าวิธีการของพวกเขาทำให้วิธีการทั่วไปเป็นปกติหรือไม่เพราะเราสามารถใช้นักบวชที่ไม่ให้ข้อมูลได้และดังนั้นจึงสามารถกู้คืนโครงสร้างแบบจำลองของนักสะสมทั่วไปได้หรือไม่? ใครช่วยแนะนำฉันไปยังสถานที่ที่ฉันสามารถอ่านเกี่ยวกับเรื่องนี้ถ้ามันถูกใช้จริง? แก้ไข: คำถามนี้อาจจะเป็นประโยคที่ไม่ตรงกับที่ฉันตั้งใจจะพูด คำถามคือ: "มีการอ้างอิงใด ๆ เกี่ยวกับการอภิปรายของกรณีที่วิธีการแบบเบย์และวิธีการที่พบบ่อยซ้อนทับกัน / ตัด / มีบางสิ่งที่เหมือนกันผ่านการใช้บางอย่างมาก่อนหรือไม่" ตัวอย่างหนึ่งจะใช้ที่ไม่เหมาะสมก่อนนี้ แต่ฉันค่อนข้างแน่ใจว่านี่เป็นเพียงส่วนปลายสุดของภูเขาน้ำแข็งp(θ)=1p(θ)=1p(\theta) = 1

6
หากคุณใช้การประมาณจุดที่เพิ่มให้มากที่สุดนั่นจะพูดถึงปรัชญาของคุณอย่างไร? (เป็นประจำหรือ Bayesian หรืออย่างอื่น?)
ถ้ามีคนพูดว่า "วิธีการนั้นใช้การประเมินจุดMLEสำหรับพารามิเตอร์ที่เพิ่มสูงสุดดังนั้นจึงเป็นสิ่งที่เกิดขึ้นบ่อยครั้งและยิ่งไม่ใช่ Bayesian"P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) คุณจะเห็นด้วยไหม อัปเดตบนพื้นหลัง : เมื่อเร็ว ๆ นี้ฉันอ่านกระดาษที่อ้างว่าใช้บ่อย ฉันไม่เห็นด้วยกับการเรียกร้องของพวกเขาที่ดีที่สุดฉันรู้สึกว่ามันคลุมเครือ กระดาษไม่ได้กล่าวถึง MLE อย่างชัดเจน (หรือMAPสำหรับเรื่องนั้น) พวกเขาใช้การประมาณค่าจุดและพวกเขาก็ดำเนินการราวกับว่าการประเมินจุดนี้เป็นจริง พวกเขาทำไม่ได้ทำการวิเคราะห์การกระจายตัวตัวอย่างของตัวประมาณค่านี้หรืออะไรทำนองนั้น แบบจำลองค่อนข้างซับซ้อนและดังนั้นการวิเคราะห์ดังกล่าวอาจเป็นไปไม่ได้ พวกเขาไม่ใช้คำว่า 'หลัง' ที่จุดใดก็ได้ พวกเขาเพียงแค่ใช้การประเมินจุดนี้ที่มูลค่าหน้าและดำเนินการในหัวข้อหลักที่น่าสนใจ - อนุมานข้อมูลที่ขาดหายไป ฉันไม่คิดว่าจะมีอะไรในแนวทางของพวกเขาที่ชี้ให้เห็นว่าปรัชญาของพวกเขาคืออะไร พวกเขาอาจจะตั้งใจที่จะเป็นประจำ (เพราะพวกเขารู้สึกว่าจำเป็นต้องสวมปรัชญาบนแขนเสื้อของพวกเขา) แต่วิธีการที่แท้จริงของพวกเขาค่อนข้างง่าย / สะดวก / ขี้เกียจ / คลุมเครือ ตอนนี้ฉันอยากบอกว่าการวิจัยไม่มีปรัชญาใด ๆ อยู่เบื้องหลัง แต่ฉันคิดว่าทัศนคติของพวกเขาในทางปฏิบัติหรือสะดวกกว่า: "ฉันสังเกตุข้อมูล, , และฉันต้องการประเมินข้อมูลที่ขาดหายไป, . มีพารามิเตอร์ที่ควบคุมความสัมพันธ์ระหว่างและ . ฉันไม่สนใจยกเว้นเรื่องที่จะจบ ถ้าฉันมีค่าประมาณสำหรับมันจะทำให้ง่ายต่อการทำนายจากฉันจะเลือกการประมาณค่าของเพราะสะดวกโดยเฉพาะฉันจะเลือกที่เพิ่ม …

2
Bayesians ตรวจสอบวิธีการของพวกเขาโดยใช้วิธีการจำลองมอนติคาร์โลได้อย่างไร
ความเป็นมา : ฉันมีปริญญาเอกในด้านจิตวิทยาสังคมซึ่งสถิติและคณิตศาสตร์ในเชิงทฤษฎีแทบจะไม่ครอบคลุมในหลักสูตรเชิงปริมาณของฉัน ผ่านการเรียนในระดับปริญญาตรีและระดับบัณฑิตศึกษาฉันได้รับการสอน (เช่นเดียวกับพวกคุณหลายคนในสังคมศาสตร์ด้วย) ผ่านโครงร่างของนักประพันธ์เพลง "คลาสสิค" ตอนนี้ฉันยังรัก R และใช้วิธีการจำลองเพื่อตรวจสอบว่าวิธีการทำงานเป็นวิธีความรู้สึกของฉันมากกว่าการพิสูจน์ทางคณิตศาสตร์ (อีกครั้ง: ภูมิหลังในเชิงสังคมศาสตร์เชิงปริมาณไม่ใช่สถิติเชิงทฤษฎี) วิธีการของผู้ใช้บ่อยและวิธีการจำลองด้วยกันทำให้ฉันมีเหตุผล เพราะผู้ที่พบเห็นความน่าจะเป็นเป็นอัตราเดิมพันระยะยาว (เช่นถ้าฉันทำสิ่งนี้เป็นจำนวนมากตามอำเภอใจและมันเกิดขึ้น 50% ของเวลาก็มีความน่าจะเป็น 50%) เราสามารถจำลองระยะยาวนี้ได้ด้วยวิธีการมอนติคาร์โล! ภาวะแทรกซ้อน : ตั้งแต่ปริญญาตรีผมได้รับมากตระหนักถึงวิธีการแบบเบย์และมีได้เสมอคนในชีวิตของฉันเรียกฉันไปทางด้านเบส์บอกว่าผลที่ได้ก็ง่ายต่อการตีความที่เราได้รับความน่าจะเป็นสำหรับสมมติฐานแทนของข้อมูล ให้สมมติฐานและอื่น ๆ ฉันเป็นแบบนี้จริง ๆ แล้วเอาชั้นเรียนแบบเบย์อ่านหนังสือและเอกสารแบบเบย์บางอันและตอนนี้ฉันก็ค่อนข้างคุ้นเคยกับสแตนและแพ็คเกจ R ที่เกี่ยวข้อง ใส่มายอ : หลังจากความคิด "แบบเบย์อาจจะเป็นวิธีของอนาคต" ในขณะที่ผมอ่านเดโบราห์เมโยสถิติอนุมานเป็นรุนแรงทดสอบ เธอบอกว่าเธอไม่ได้เลือกข้างในตอนเริ่มต้นของหนังสือ แต่เธอก็รู้ว่า: เธอเป็นคนที่เรียนบ่อยและหนังสือจำนวนมากกำลังปกป้องวิธีการที่ใช้บ่อย ฉันไม่ต้องการพูดคุยเกี่ยวกับว่าเราคิดว่าวิธีที่เธอเห็นหลักฐานนั้นถูกต้องหรือไม่ แต่สิ่งนี้ทำให้ฉันคิดว่า: Bayes เป็นสิ่งที่โฆษณาจริงๆหรือไม่? ฉันหมายความว่าฝูงชนเบย์แตกหักตัวเองจนฉันไม่รู้วิธีที่ถูกต้องในการวิเคราะห์ข้อมูลในกรอบเบย์บ่อยครั้ง ปกติฉันจะใช้rstanarmและการประมาณจุดปัจจุบันและช่วงเวลาที่น่าเชื่อถือ ... ซึ่งมักจะเข้าแถวอย่างใกล้ชิดกับการประมาณการบ่อยครั้งและช่วงความเชื่อมั่น ฉันอาจทำการเปรียบเทียบโมเดล แต่ฉันมักจะกลัวที่จะอธิบายปัจจัย Bayes เป็นการเปรียบเทียบความน่าจะเป็นหลังและอื่น ๆ …

5
ช่วงความมั่นใจมีประโยชน์หรือไม่?
ในสถิติที่ใช้บ่อยช่วงความมั่นใจ 95% เป็นขั้นตอนการสร้างช่วงเวลาซึ่งหากทำซ้ำจำนวนครั้งไม่สิ้นสุดจะมีพารามิเตอร์ที่แท้จริง 95% ของเวลา ทำไมถึงมีประโยชน์ ช่วงความเชื่อมั่นมักเข้าใจผิด พวกเขาไม่ใช่ช่วงเวลาที่เราสามารถมั่นใจได้ 95% ว่าพารามิเตอร์นั้นอยู่ใน (ยกเว้นว่าคุณกำลังใช้ช่วงความน่าเชื่อถือแบบเบย์ที่คล้ายกัน) ช่วงเวลาความมั่นใจรู้สึกเหมือนเป็นเหยื่อและสลับมาที่ฉัน กรณีการใช้งานอย่างหนึ่งที่ฉันคิดได้ก็คือกำหนดช่วงของค่าที่เราไม่สามารถปฏิเสธสมมติฐานว่างได้ว่าพารามิเตอร์คือค่านั้น ค่า p จะไม่ให้ข้อมูลนี้ แต่จะดีกว่าไหม โดยไม่ทำให้เข้าใจผิด? ในระยะสั้น: ทำไมเราต้องมีช่วงความมั่นใจ? เมื่อตีความอย่างถูกต้องมีประโยชน์อย่างไร?

4
Bayesian uninformative priors เทียบกับ null nullistes บ่อยครั้ง: ความสัมพันธ์คืออะไร?
ฉันมาข้ามภาพนี้ในบล็อกโพสต์ที่นี่ ฉันรู้สึกผิดหวังที่การอ่านคำแถลงนั้นไม่ได้ทำให้สีหน้าฉันเหมือนที่เคยทำกับผู้ชายคนนี้ ดังนั้นสิ่งที่มีความหมายโดยคำพูดที่ว่าสมมติฐานว่างเป็นวิธีที่บ่อยครั้งแสดงความไม่ทราบมาก่อน? เป็นเรื่องจริงเหรอ? แก้ไข:ฉันหวังว่าบางคนสามารถเสนอการตีความเพื่อการกุศลที่ทำให้ข้อความเป็นจริงแม้ในบางกรณี

1
R / mgcv: เพราะเหตุใดผลิตภัณฑ์ te () และ ti () เทนเซอร์จึงให้พื้นผิวที่แตกต่างกัน
mgcvแพคเกจสำหรับการRมีสองฟังก์ชั่นสำหรับการปฏิสัมพันธ์กระชับเมตริกซ์ผลิตภัณฑ์: และte() ti()ฉันเข้าใจการแบ่งขั้นพื้นฐานของการใช้แรงงานระหว่างคนทั้งสอง (ปรับให้เหมาะสมกับการทำงานแบบไม่เป็นเชิงเส้นเปรียบเทียบกับการย่อยสลายการโต้ตอบนี้เป็นผลกระทบหลักและการโต้ตอบ) สิ่งที่ฉันไม่เข้าใจคือสาเหตุte(x1, x2)และti(x1) + ti(x2) + ti(x1, x2)อาจให้ผลลัพธ์ที่แตกต่าง (เล็กน้อย) MWE (ดัดแปลงมาจาก?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
เมื่อใดที่ไม่สามารถตีความการแจกแจงการสุ่มตัวอย่างเป็นเบย์หลังในการตั้งค่าการถดถอยได้
คำถามจริงของฉันอยู่ในสองย่อหน้าสุดท้าย แต่จะกระตุ้นพวกเขา: ถ้าฉันพยายามที่จะประมาณค่าเฉลี่ยของตัวแปรสุ่มที่ตามหลังการแจกแจงปกติที่มีความแปรปรวนที่รู้จักกันฉันได้อ่านว่าการใส่เครื่องแบบก่อนหน้าค่าเฉลี่ยจะส่งผลให้มีการแจกแจงด้านหลังซึ่งเป็นสัดส่วนกับฟังก์ชันความน่าจะเป็น ในสถานการณ์เหล่านี้ช่วงเวลาที่น่าเชื่อถือแบบเบย์คาบเกี่ยวกันอย่างสมบูรณ์แบบกับช่วงความเชื่อมั่นที่พบบ่อยและค่าสูงสุดหลังเบย์ที่ประมาณการหลังเท่ากับความเป็นไปได้สูงสุดที่เกิดขึ้นบ่อยครั้ง ในการตั้งค่าการถดถอยเชิงเส้นอย่างง่าย Y= X β+ ϵ ,ϵ ∼ N( 0 , σ2)Y=Xβ+ϵ,ϵ∼N(0,σ2)Y = \textbf{X}\beta+\epsilon, \hspace{1cm} \epsilon\sim N(0,\sigma^2) ใส่เครื่องแบบไว้ก่อนหน้าและ inverse-gamma ก่อนหน้าด้วยค่าพารามิเตอร์เล็ก ๆ ส่งผลให้หลังที่จะคล้ายกันมากกับบ่อยครั้งและช่วงเวลาที่น่าเชื่อถือสำหรับการกระจายหลังของที่จะคล้ายกับช่วงความเชื่อมั่นมากที่สุดโดยประมาณค่าความน่าจะเป็นสูงสุด พวกเขาจะไม่เหมือนเดิมเพราะก่อนหน้านี้มีอิทธิพลเล็กน้อยและหากการประเมินหลังถูกดำเนินการผ่านการจำลอง MCMC ที่จะแนะนำแหล่งที่มาของความคลาดเคลื่อนอื่น แต่ช่วงเวลาที่น่าเชื่อถือของ Bayesian รอบσ 2 β M P β M L E β | X σ 2 β M Pββ\betaσ2σ2\sigma^2β^MA Pβ^MAP\hat\beta^{MAP}β^ML Eβ^MLE\hat\beta^{MLE}β| Xβ|X\beta|Xσ2σ2\sigma^2β^MA …

2
คำขออ้างอิง: สถิติคลาสสิคสำหรับนักวิทยาศาสตร์ด้านข้อมูลการทำงาน
ฉันเป็นนักวิทยาศาสตร์ข้อมูลที่ทำงานด้วยประสบการณ์ที่แข็งแกร่งในการถดถอยอัลกอริธึมชนิดการเรียนรู้ของเครื่องอื่น ๆ และการเขียนโปรแกรม (ทั้งสำหรับการวิเคราะห์ข้อมูลและการพัฒนาซอฟต์แวร์ทั่วไป) ชีวิตการทำงานส่วนใหญ่ของฉันมุ่งเน้นไปที่การสร้างแบบจำลองเพื่อความแม่นยำในการคาดการณ์ (ทำงานภายใต้ข้อ จำกัด ทางธุรกิจต่าง ๆ ) และการสร้างท่อส่งข้อมูลเพื่อสนับสนุนงานของฉันเอง ฉันไม่มีสถิติการฝึกอบรมอย่างเป็นทางการการศึกษาในมหาวิทยาลัยของฉันเน้นที่คณิตศาสตร์บริสุทธิ์ เช่นนี้ทำให้พลาดการเรียนรู้หัวข้อคลาสสิกจำนวนมากโดยเฉพาะการทดสอบสมมติฐานยอดนิยมต่างๆและเทคนิคการอนุมาน มีการอ้างอิงใด ๆ สำหรับหัวข้อเหล่านี้ที่เหมาะสำหรับใครบางคนที่มีพื้นฐานและระดับประสบการณ์หรือไม่? ฉันสามารถจัดการ (และชื่นชม) ความแม่นยำทางคณิตศาสตร์และเพลิดเพลินไปกับมุมมองอัลกอริทึม ฉันมักจะชอบอ้างอิงที่เสนอแบบฝึกหัดที่มีผู้อ่านซึ่งมีทั้งแบบ (หรืออย่างใดอย่างหนึ่ง) โฟกัสการเขียนโปรแกรมทางคณิตศาสตร์และ (หรือ)

3
การอนุมานแบบผสม 2-Gaussian ด้วย MCMC และ PyMC
ปัญหา ฉันต้องการให้พอดีกับพารามิเตอร์แบบจำลองของประชากร 2-Gaussian แบบเรียบง่าย ให้ทุก hype รอบวิธี Bayesian ฉันต้องการเข้าใจว่าสำหรับปัญหานี้อนุมาน Bayesian เป็นเครื่องมือที่ดีกว่าวิธีการกระชับแบบดั้งเดิม จนถึงตอนนี้ MCMC ทำงานได้แย่มากในตัวอย่างของเล่นนี้ แต่บางทีฉันอาจมองข้ามบางสิ่งบางอย่าง ดังนั้นเรามาดูรหัส เครื่องมือ ฉันจะใช้ python (2.7) + scipy stack, lmfit 0.8 และ PyMC 2.3 สมุดบันทึกเพื่อทำซ้ำการวิเคราะห์สามารถพบได้ที่นี่ สร้างข้อมูล ก่อนอื่นให้สร้างข้อมูล: from scipy.stats import distributions # Sample parameters nsamples = 1000 mu1_true = 0.3 mu2_true = 0.55 sig1_true = 0.08 …

1
เหตุใดสถิติแบบเบย์จึงกลายเป็นหัวข้อวิจัยที่ได้รับความนิยมมากขึ้นเรื่อย ๆ [ปิด]
ปิด คำถามนี้เป็นคำถามความคิดเห็นตาม ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้สามารถตอบข้อเท็จจริงและการอ้างอิงได้โดยแก้ไขโพสต์นี้ ปิดเมื่อปีที่แล้ว การสืบค้นในพื้นที่วิจัยของโปรแกรมสถิติของ US News 100 อันดับแรกเกือบทั้งหมดเป็นสถิติเบย์ อย่างไรก็ตามถ้าฉันไปโรงเรียนชั้นล่างพวกเขาส่วนใหญ่ยังคงทำการวิจัยสถิติแบบดั้งเดิม / บ่อยครั้ง ตัวอย่างเช่นโรงเรียนปัจจุบันของฉัน (อันดับระหว่าง 150 ถึง 200 ในการจัดอันดับ QS โลกสำหรับสถิติจึงไม่ถือว่าเป็นโรงเรียนระดับชั้นนำ) มีอาจารย์เพียงคนเดียวที่มุ่งเน้นไปที่สถิติแบบเบย์และเกือบจะมีความแค้นต่อสถิติแบบเบย์ นักเรียนระดับปริญญาตรีบางคนที่ฉันได้พูดคุยด้วยถึงแม้จะบอกว่านักสถิติแบบเบย์กำลังทำสถิติแบบเบย์เพื่อประโยชน์ของมันซึ่งแน่นอนว่าฉันไม่เห็นด้วยอย่างยิ่ง อย่างไรก็ตามฉันสงสัยว่าทำไมในกรณีนี้ ฉันมีการคาดเดาการศึกษาหลายประการ: (a) มีที่ว่างไม่เพียงพอสำหรับความก้าวหน้าในวิธีการทางสถิติแบบคลาสสิก / บ่อยครั้งและการวิจัยเชิงปฏิบัติเพียงอย่างเดียวในการวิจัยสถิติแบบคลาสสิก / บ่อยครั้งอยู่ในแอปพลิเคชันซึ่งจะเป็นจุดสนใจหลักของโรงเรียนระดับล่าง มีแนวโน้มไปสู่การวิจัยเชิงทฤษฎีและระเบียบวิธี (b) มันขึ้นอยู่กับสนามหนัก สาขาสถิติบางสาขาเหมาะสำหรับสถิติแบบเบย์เช่นการประยุกต์ใช้วิธีการทางวิทยาศาสตร์จำนวนมากในขณะที่สาขาอื่นเหมาะสำหรับสถิติแบบดั้งเดิมเช่นพื้นที่ทางการเงิน (แก้ไขฉันถ้าฉันผิด) ด้วยเหตุนี้ฉันคิดว่าโรงเรียนระดับชั้นนำมีสถิติมากมายที่ใช้งานแอพพลิเคชั่นในสาขาวิทยาศาสตร์ในขณะที่แผนกสถิติชั้นล่างของโรงเรียนส่วนใหญ่มุ่งเน้นการใช้งานในด้านการเงิน และเงินทุน (c) มีปัญหาใหญ่ ๆ เกี่ยวกับวิธีการที่ใช้บ่อยซึ่งไม่สามารถแก้ไขได้เช่นแนวโน้มที่จะเกิด MLE มากเกินไปเป็นต้นและดูเหมือนว่า Bayesian จะให้คำตอบที่ยอดเยี่ยม (d) พลังการคำนวณอยู่ที่นี่ดังนั้นการคำนวณแบบเบย์ไม่ได้เป็นคอขวดอีกต่อไปเมื่อ 30 …

2
นิยามของความน่าจะเป็นแบบบ่อย มีคำจำกัดความที่เป็นทางการหรือไม่?
มีคำจำกัดความที่เป็นทางการ (ทางคณิตศาสตร์) ของสิ่งที่ผู้ใช้บ่อยเข้าใจภายใต้ '' ความน่าจะเป็น 'หรือไม่ ฉันอ่านว่ามันเป็นความถี่สัมพัทธ์ของการเกิด '' ในระยะยาว '' แต่มีบางวิธีที่เป็นทางการในการกำหนดหรือไม่? มีการอ้างอิงที่รู้จักที่ฉันสามารถค้นหาคำจำกัดความนั้นได้หรือไม่? แก้ไข: ด้วยผู้ใช้บ่อย (ดูความคิดเห็นโดย @whuber และความคิดเห็นของฉันต่อคำตอบ @Kodiologist และ @Graeme Walsh ด้านล่างคำตอบนั้น) ฉันหมายถึงผู้ที่เชื่อในความถี่ระยะยาวที่มีอยู่นี้ บางทีนี่ (ส่วนหนึ่ง) ตอบคำถามของ @Tim ด้วย

1
ตัวประมาณที่ลดผลรวมถ่วงน้ำหนักของอคติกำลังสองและความแปรปรวนเข้ากับทฤษฎีการตัดสินใจได้อย่างไร
ตกลง - ข้อความต้นฉบับของฉันไม่สามารถตอบสนองได้ ขอผมใส่คำถามที่ต่างออกไป ฉันจะเริ่มต้นด้วยการอธิบายความเข้าใจของฉันเกี่ยวกับการประเมินจากมุมมองทางทฤษฎีการตัดสินใจ ฉันไม่มีการฝึกฝนอย่างเป็นทางการและจะไม่ทำให้ฉันประหลาดใจถ้าความคิดของฉันมีข้อบกพร่อง สมมติว่าเรามีบางฟังก์ชั่นการสูญเสีย(x)) การสูญเสียที่คาดหวังคือความเสี่ยง (บ่อยครั้ง):L(θ,θ^(x))L(θ,θ^(x))L(\theta,\hat\theta(x)) R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(\theta,\hat\theta(x))=\int L(\theta,\hat\theta(x))\mathcal{L}(\theta,\hat\theta(x))dx, โดยที่คือความเป็นไปได้; และความเสี่ยงของ Bayes คือความเสี่ยงที่พบบ่อย:L(θ,θ^(x))L(θ,θ^(x))\mathcal{L}(\theta,\hat\theta(x)) r(θ,θ^(x))=∫∫R(θ,θ^(x))π(θ)dxdθ,r(θ,θ^(x))=∫∫R(θ,θ^(x))π(θ)dxdθ,r(\theta,\hat\theta(x))=\int\int R(\theta,\hat\theta(x))\pi (\theta)dxd\theta, โดยที่เป็นของเราก่อนหน้าπ(θ)π(θ)\pi (\theta) โดยทั่วไปแล้วเราพบที่ย่อและสิ่งนี้ได้ผลดี; ยิ่งกว่านั้นทฤษฎีบทของ Fubini ก็นำมาใช้และเราสามารถกลับลำดับการรวมเพื่อให้ใด ๆที่ย่อเป็นอิสระจากคนอื่นทั้งหมด วิธีนี้หลักการความน่าจะเป็นไม่ได้ถูกละเมิดและเราสามารถรู้สึกดีเกี่ยวกับการเป็นแบบเบย์เป็นต้นθ^(x)θ^(x)\hat\theta(x)rrrθ^(x)θ^(x)\hat\theta(x)rrr ตัวอย่างเช่นเนื่องจากการสูญเสียข้อผิดพลาดกำลังสองที่คุ้นเคยความเสี่ยงของเราที่พบบ่อยคือความคลาดเคลื่อนกำลังสองเฉลี่ยหรือผลรวม ความเอนเอียงและความแปรปรวนและความเสี่ยงของเบย์คือผลรวมที่คาดหวังของความอคติกำลังสองและความแปรปรวนตามที่เราคาดไว้ก่อนหน้านั่นคือการสูญเสียด้านหลังL(θ,θ^(x))=(θ−θ^(x))2,L(θ,θ^(x))=(θ−θ^(x))2,L(\theta,\hat\theta(x))=(\theta- \hat\theta(x))^2, นี่ดูเหมือนจะสมเหตุสมผลสำหรับฉัน (แม้ว่าฉันอาจจะผิดมาก); แต่ไม่ว่าในกรณีใดสิ่งต่าง ๆ ทำให้ฉันรู้สึกไม่ถึงวัตถุประสงค์อื่น ๆ ตัวอย่างเช่นสมมติว่าแทนที่จะลดผลรวมของอคติและความแปรปรวนที่ถ่วงน้ำหนักเท่า ๆ กันฉันต้องการลดผลรวมน้ำหนักที่ไม่เท่ากันนั่นคือฉันต้องการที่ย่อเล็กสุด:θ^(x)θ^(x)\hat\theta(x) (E[θ^(x)]−θ)2+kE[(θ^(x)−E[θ^(x)])2],(E[θ^(x)]−θ)2+kE[(θ^(x)−E[θ^(x)])2],(\mathbb{E}[\hat\theta(x)]-\theta)^2+k\mathbb{E}[(\hat\theta(x)-\mathbb{E}[\hat\theta(x)])^2], โดยที่คือค่าคงที่จริงที่เป็นบวก (นอกเหนือจาก 1)kkk ฉันมักจะอ้างถึงผลรวมเช่นนี้เป็น "ฟังก์ชันวัตถุประสงค์" แม้ว่ามันอาจเป็นไปได้ว่าฉันกำลังใช้คำนั้นอย่างไม่ถูกต้อง คำถามของฉันไม่เกี่ยวกับวิธีค้นหาวิธีแก้ปัญหา - การค้นหาที่ลดฟังก์ชันวัตถุประสงค์นี้ให้ทำได้เป็นตัวเลข - แต่คำถามของฉันคือสองเท่า:θ^(x)θ^(x)\hat\theta(x) …

4
รูปแบบประวัติเหตุการณ์แบบไม่ต่อเนื่อง (การอยู่รอด) ใน R
ฉันกำลังพยายามปรับโมเดลที่ไม่ต่อเนื่องใน R แต่ฉันไม่แน่ใจว่าจะทำอย่างไร ฉันได้อ่านแล้วว่าคุณสามารถจัดระเบียบตัวแปรตามในแถวต่างกันหนึ่งตัวสำหรับแต่ละการสังเกตเวลาและการใช้glmฟังก์ชั่นที่มีลิงค์ logit หรือ cloglog ในแง่นี้ฉันมีสามคอลัมน์: ID, Event(1 หรือ 0 ในแต่ละช่วงเวลา) และTime Elapsed(ตั้งแต่จุดเริ่มต้นของการสังเกต) รวมทั้ง covariates อื่น ๆ ฉันจะเขียนรหัสเพื่อให้พอดีกับรุ่นได้อย่างไร ตัวแปรตามคืออะไร ฉันเดาว่าฉันสามารถใช้Eventเป็นตัวแปรตามและรวมTime Elapsedอยู่ใน covariates แต่สิ่งที่เกิดขึ้นกับID? ฉันต้องการมันไหม ขอบคุณ
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

2
คุณสมบัติความไม่แปรเปลี่ยนของตัวประมาณค่า ML นั้นไร้ความหมายจากมุมมองแบบเบย์หรือไม่?
Casella และ Bergerระบุคุณสมบัติ invariance ของตัวประมาณค่า ML ดังนี้: อย่างไรก็ตามดูเหมือนว่าพวกเขาจะกำหนด "โอกาส" ของ ηη\eta อย่างสมบูรณ์แบบและไร้สาระ: ถ้าฉันใช้กฎพื้นฐานของทฤษฎีความน่าจะเป็นกับกรณีอย่างง่าย η=τ(θ)=θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2ฉันได้รับต่อไปนี้แทน: L(η|x)=p(x|θ2=η)=p(x|θ=−η–√∨θ=η–√)=:p(x|A∨B)L(η|x)=p(x|θ2=η)=p(x|θ=−η∨θ=η)=:p(x|A∨B)L(\eta|x)=p(x|\theta^2=\eta)=p(x|\theta = -\sqrt \eta \lor \theta = \sqrt \eta)=:p(x|A \lor B) ตอนนี้ใช้ทฤษฎีบทของเบย์แล้วจากข้อเท็จจริงที่ว่า AAA และ BBB เป็นเอกสิทธิ์เฉพาะบุคคลร่วมกันเพื่อให้เราสามารถใช้กฎผลรวม: p(x|A∨B)=p(x)p(A∨B|x)p(A∨B)=p(x|A∨B)=p(x)p(A|x)+p(B|x)p(A)+p(B)p(x|A∨B)=p(x)p(A∨B|x)p(A∨B)=p(x|A∨B)=p(x)p(A|x)+p(B|x)p(A)+p(B)p(x|A\lor B)=p(x)\frac {p(A\lor B|x)}{p(A\lor B)}=p(x|A\lor B)=p(x)\frac {p(A|x)+p(B|x)}{p(A)+p(B)} ตอนนี้ใช้ทฤษฎีบทของเบย์กับเงื่อนไขในตัวเศษอีกครั้ง: p(x)p(A)p(x|A)p(x)+p(B)p(x|B)p(x)p(A)+p(B)=p(A)p(x|A)+p(B)p(x|B)p(A)+p(B)p(x)p(A)p(x|A)p(x)+p(B)p(x|B)p(x)p(A)+p(B)=p(A)p(x|A)+p(B)p(x|B)p(A)+p(B)p(x)\frac {p(A)\frac {p(x|A)}{p(x)}+p(B)\frac {p(x|B)}{p(x)}}{p(A)+p(B)}=\frac {p(A)p(x|A)+p(B)p(x|B)}{p(A)+p(B)} ถ้าเราต้องการเพิ่ม wrt นี้ให้สูงสุด ηη\eta เพื่อให้ได้ค่าประมาณโอกาสสูงสุด ηη\etaเราต้องเพิ่มสูงสุด: pθ(−η–√)p(x|θ=−η–√)+pθ(η–√)p(x|θ=η–√)pθ(−η)p(x|θ=−η)+pθ(η)p(x|θ=η)p_\theta(-\sqrt …

6
การใช้ค่า p เพื่อคำนวณความน่าจะเป็นของสมมติฐานที่เป็นจริง ต้องการอะไรอีก
คำถาม: ความเข้าใจผิดอย่างหนึ่งที่พบบ่อยของค่า p คือพวกมันเป็นตัวแทนของความน่าจะเป็นของสมมติฐานว่างเปล่าที่เป็นจริง ฉันรู้ว่าไม่ถูกต้องและฉันรู้ว่าค่า p แสดงถึงความน่าจะเป็นในการหาตัวอย่างมากเช่นนี้เนื่องจากสมมติฐานว่างเป็นจริง อย่างไรก็ตามอย่างสังหรณ์ใจคนหนึ่งควรจะได้รับมาจากคนหลัง ต้องมีเหตุผลว่าทำไมไม่มีใครทำเช่นนี้ ข้อมูลใดที่เราขาดหายไปซึ่ง จำกัด เราจากการได้รับความน่าจะเป็นของสมมติฐานที่เป็นจริงจากค่า p และข้อมูลที่เกี่ยวข้อง? ตัวอย่าง: สมมติฐานของเราคือ "วิตามินดีส่งผลต่ออารมณ์" (สมมติฐานว่างเปล่าว่าเป็น "ไม่มีผล") สมมติว่าเราทำการศึกษาทางสถิติที่เหมาะสมกับ 1,000 คนและค้นหาความสัมพันธ์ระหว่างอารมณ์และระดับวิตามิน สิ่งอื่น ๆ ที่เท่าเทียมกันค่า p-0.01 บ่งชี้ความเป็นไปได้ของสมมติฐานที่แท้จริงสูงกว่าค่า p-0.05 สมมุติว่าเราได้ค่า p เป็น 0.05 ทำไมเราไม่สามารถคำนวณความน่าจะเป็นจริงที่สมมติฐานของเราเป็นจริงได้ ข้อมูลอะไรที่เราขาดหายไป? คำศัพท์สำรองสำหรับนักสถิติประจำ: หากคุณยอมรับหลักฐานของคำถามของฉันคุณสามารถหยุดอ่านได้ที่นี่ ต่อไปนี้สำหรับผู้ที่ปฏิเสธที่จะยอมรับว่าสมมติฐานสามารถมีการตีความความน่าจะเป็น เรามาลืมคำศัพท์กันสักครู่ แทน... สมมติว่าคุณกำลังเดิมพันกับเพื่อนของคุณ เพื่อนของคุณแสดงการศึกษาทางสถิตินับพันเกี่ยวกับวิชาที่ไม่เกี่ยวข้อง สำหรับการศึกษาแต่ละครั้งคุณจะได้รับอนุญาตให้ดูที่ p-value ขนาดตัวอย่างและค่าเบี่ยงเบนมาตรฐานของตัวอย่าง สำหรับการศึกษาแต่ละครั้งเพื่อนของคุณเสนอโอกาสที่จะเดิมพันว่าสมมติฐานที่นำเสนอในการศึกษาเป็นจริง คุณสามารถเลือกที่จะเดิมพันหรือไม่ก็ได้ หลังจากที่คุณทำการเดิมพันสำหรับการศึกษาทั้งหมด 1,000 ครั้งแล้วออราเคิลก็ขึ้นไปหาคุณและบอกคุณว่าสมมติฐานใดถูกต้อง ข้อมูลนี้ช่วยให้คุณสามารถตัดสินการเดิมพัน …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.