คำถามติดแท็ก profile-likelihood

3
การแปลความหมายของตัวทำนายการแปลงสภาพบันทึกและ / หรือการตอบสนอง
ฉันสงสัยว่ามันจะสร้างความแตกต่างในการตีความไม่ว่าจะเป็นเพียงขึ้นอยู่กับทั้งขึ้นอยู่กับและเป็นอิสระหรือตัวแปรอิสระเท่านั้นที่ถูกเปลี่ยนเข้าสู่ระบบ พิจารณากรณีของ log(DV) = Intercept + B1*IV + Error ฉันสามารถตีความ IV เป็นเปอร์เซ็นต์เพิ่มขึ้น แต่จะเปลี่ยนแปลงได้อย่างไรเมื่อฉันมี log(DV) = Intercept + B1*log(IV) + Error หรือเมื่อฉันมี DV = Intercept + B1*log(IV) + Error ?
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

3
เหตุใดจึงมีความแตกต่างระหว่างการคำนวณช่วงความเชื่อมั่นแบบโลจิสติก 95% ด้วยตนเองและการใช้ฟังก์ชัน confint () ใน R
เรียนคุณทุกคน - ฉันสังเกตเห็นบางสิ่งแปลก ๆ ที่ไม่สามารถอธิบายได้ไหม โดยสรุป: แนวทางแบบแมนนวลเพื่อคำนวณช่วงความมั่นใจในโมเดลการถดถอยโลจิสติกและฟังก์ชัน R confint()ให้ผลลัพธ์ที่แตกต่างกัน ฉันเคยผ่านการถดถอยโลจิสติกประยุกต์ของ Hosmer & Lemeshow แล้ว (ฉบับที่ 2) ในบทที่ 3 มีตัวอย่างของการคำนวณอัตราส่วนอัตราต่อรองและช่วงความมั่นใจ 95% ด้วย R ฉันสามารถสร้างโมเดลได้อย่างง่ายดาย: Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

1
การสร้างช่วงความมั่นใจโดยพิจารณาจากความน่าจะเป็นของโปรไฟล์
ในหลักสูตรสถิติเบื้องต้นของฉันฉันได้เรียนรู้วิธีสร้างช่วงความมั่นใจ 95% เช่นค่าเฉลี่ยประชากรโดยยึดตามมาตรฐานเชิงเส้นกำกับสำหรับขนาดตัวอย่าง "ใหญ่" นอกเหนือจากresampling วิธี (เช่นบูต) มีวิธีการอื่นที่อยู่บนพื้นฐานของ"ความน่าจะเป็นรายละเอียด" มีคนอธิบายแนวทางนี้ได้ไหมμμ\mu ภายใต้สถานการณ์ใด CI 95% ที่สร้างขึ้นตามเกณฑ์เชิงเส้นกำกับและความน่าจะเป็นของโปรไฟล์นั้นเทียบเคียงได้อย่างไร ฉันไม่พบการอ้างอิงใด ๆ ในหัวข้อนี้การอ้างอิงที่แนะนำใด ๆ ทำไมมันไม่ใช้กันอย่างแพร่หลายมากขึ้น?

1
อะไรคือข้อเสียของความน่าจะเป็นของโปรไฟล์?
พิจารณาเวกเตอร์ของพารามิเตอร์โดยมีพารามิเตอร์ที่น่าสนใจและ a พารามิเตอร์ที่สร้างความรำคาญθ 1 θ 2( θ1, θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 หากเป็นโอกาสที่สร้างขึ้นจากข้อมูลความน่าจะเป็นของโปรไฟล์สำหรับถูกกำหนดเป็นที่เป็น MLE ของสำหรับค่าคงที่ของ\x θ 1 L P ( θ 1 ; x ) = L ( θ 1 , θ 2 ( θ 1 ) ; x ) θ 2 ( θ 1 ) θ 2 θ 1L ( θ1, θ2; …

3
ความสัมพันธ์ระหว่างความน่าจะเป็นของโปรไฟล์และช่วงความมั่นใจคืออะไร
ในการทำให้แผนภูมินี้ฉันสร้างตัวอย่างสุ่มขนาดแตกต่างจากการแจกแจงแบบปกติด้วยค่าเฉลี่ย = 0 และ sd = 1 ช่วงเวลาความเชื่อมั่นถูกคำนวณโดยใช้การตัดอัลฟาตั้งแต่. 001 ถึง. 999 (เส้นสีแดง) ด้วยฟังก์ชั่น t.test () ความน่าจะเป็นของโปรไฟล์ถูกคำนวณโดยใช้รหัสด้านล่างซึ่งฉันพบในบันทึกการบรรยายที่ใส่ไว้ในบรรทัด ไม่พบลิงค์ในขณะนี้แก้ไข: พบเลย ) นี่จะแสดงเป็นเส้นสีฟ้า เส้นสีเขียวแสดงความหนาแน่นปกติโดยใช้ฟังก์ชั่นความหนาแน่น R () และข้อมูลจะแสดงโดยกล่องสี่เหลี่ยมที่ด้านล่างของแต่ละแผนภูมิ ด้านขวาเป็นโครงเรื่องของช่วงความเชื่อมั่น 95% (สีแดง) และ 1/20 ของช่วงเวลาความน่าจะเป็นสูงสุด (สีน้ำเงิน) รหัส R ที่ใช้สำหรับความเป็นไปได้ของโปรไฟล์: #mn=mean(dat) muVals <- seq(low,high, length = 1000) likVals <- sapply(muVals, function(mu){ (sum((dat - mu)^2) / sum((dat …

2
Hessian ของความน่าจะเป็นของโปรไฟล์ที่ใช้สำหรับการประเมินข้อผิดพลาดมาตรฐาน
คำถามนี้เป็นแรงบันดาลใจโดยหนึ่งในนี้ ฉันค้นหาสองแหล่งและนี่คือสิ่งที่ฉันพบ A. van der Vaart, สถิติ Assymptotic: มันเป็นไปไม่ได้ที่จะคำนวณความเป็นไปได้ของโพรไฟล์อย่างชัดเจน แต่การประเมินเชิงตัวเลขมักเป็นไปได้ จากนั้นความน่าจะเป็นของโปรไฟล์อาจช่วยลดมิติของฟังก์ชันความน่าจะเป็นได้ ฟังก์ชั่นความน่าจะเป็นโพรไฟล์มักจะใช้ในลักษณะเดียวกับฟังก์ชั่นความน่าจะเป็น (ธรรมดา) ของโมเดลพาราเมตริก นอกเหนือจากการจุดของพวกเขาสูงสุดประมาณθ , อนุพันธ์ที่สองที่θจะใช้เป็นประมาณการลบผกผันของเมทริกซ์ความแปรปรวน asymptotic ของ e ๆ การวิจัยล่าสุดดูเหมือนจะตรวจสอบการปฏิบัตินี้θ^θ^\hat\thetaθ^θ^\hat\theta J. Wooldridge การวิเคราะห์ทางเศรษฐมิติของข้อมูลส่วนและข้อมูลพาเนล (เหมือนกันทั้งสองรุ่น): ในฐานะที่เป็นอุปกรณ์สำหรับการศึกษาคุณสมบัติเชิงซีเอ็นซีฟังก์ชันความเข้มข้นของวัตถุประสงค์มีค่า จำกัด เนื่องจากขึ้นอยู่กับค่าของWทั้งหมดซึ่งในกรณีนี้ฟังก์ชั่นวัตถุประสงค์ไม่สามารถเขียนเป็นผลรวมของคำสั่งสรุปอิสระแบบกระจาย การตั้งค่าหนึ่งที่สมการ (12.89) คือผลรวมของฟังก์ชั่น iid เกิดขึ้นเมื่อเราตั้งสมาธิกับเอฟเฟกต์เฉพาะของแต่ละบุคคลจากแบบจำลองข้อมูลแผงบางแบบไม่เชิงเส้น นอกจากนี้ฟังก์ชั่นวัตถุประสงค์ที่เข้มข้นยังมีประโยชน์ในการสร้างความเท่าเทียมของวิธีการประมาณที่แตกต่างกันg(W,β)g(W,β)g(W,\beta)WWW Wooldridge กล่าวถึงปัญหาในบริบทที่กว้างขึ้นของตัวประมาณ M ดังนั้นมันจึงใช้กับตัวประมาณความเป็นไปได้สูงสุดเช่นกัน ดังนั้นเราจึงได้คำตอบสองข้อสำหรับคำถามเดียวกัน มารในความคิดของฉันอยู่ในรายละเอียด สำหรับบางรุ่นเราสามารถใช้ hessian ของความน่าจะเป็นของโปรไฟล์ได้อย่างปลอดภัยสำหรับบางรุ่นที่ไม่ มีผลลัพธ์ทั่วไปใดบ้างที่ให้เงื่อนไขเมื่อเราสามารถทำได้ (หรือไม่สามารถทำได้)?

1
ฉันจะรวมเอานวัตกรรมล้ำสมัยที่การสังเกตที่ 48 ในโมเดล ARIMA ของฉันได้อย่างไร
ฉันกำลังทำงานกับชุดข้อมูล หลังจากใช้เทคนิคการระบุตัวแบบบางอย่างฉันก็ออกมาพร้อมกับแบบจำลอง ARIMA (0,2,1) ผมใช้detectIOฟังก์ชั่นในแพคเกจTSAในการวิจัยที่จะตรวจพบนวัตกรรมขอบเขต (IO) ที่สังเกต 48th ของชุดข้อมูลเดิมของฉัน ฉันจะรวมค่าผิดปกตินี้ไว้ในแบบจำลองของฉันเพื่อที่ฉันจะสามารถใช้เพื่อวัตถุประสงค์ในการพยากรณ์ได้อย่างไร ฉันไม่ต้องการใช้แบบจำลอง ARIMAX เนื่องจากฉันอาจไม่สามารถคาดการณ์ได้จากสิ่งนั้นใน R มีวิธีอื่นที่ฉันสามารถทำได้หรือไม่ นี่คือค่านิยมของฉันตามลำดับ: VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

2
ฉันจะประมาณช่วงความมั่นใจ 95% โดยใช้การทำโปรไฟล์สำหรับพารามิเตอร์ที่ประเมินได้โดยการเพิ่มฟังก์ชั่นบันทึกความเป็นไปได้โดยใช้ optimize ใน R ได้อย่างไร
ฉันจะประมาณช่วงความมั่นใจ 95% โดยใช้การทำโปรไฟล์สำหรับพารามิเตอร์ที่ประเมินได้โดยการเพิ่มฟังก์ชั่นบันทึกความเป็นไปได้โดยใช้ optimize ใน R ได้อย่างไร ฉันรู้ว่าฉันสามารถประเมินเมทริกซ์ความแปรปรวนร่วมแบบไม่มีสัญญาณได้โดยการสลับเฮสเซียนแต่ฉันกังวลว่าข้อมูลของฉันไม่ตรงตามสมมติฐานที่จำเป็นสำหรับวิธีการนี้ที่จะถูกต้อง ฉันต้องการประเมินช่วงความมั่นใจโดยใช้วิธีอื่น วิธีความน่าจะเป็นของโปรไฟล์มีความเหมาะสมตามที่กล่าวไว้ในStryhn และ Christensenและในหนังสือ MASS Venables และ Ripley ของ§8.4, pp. 220-221? ถ้ามีมีแพ็คเกจใดบ้างที่สามารถช่วยฉันทำสิ่งนี้ใน R หรือไม่? ถ้าไม่เช่นนั้นรหัสหลอกสำหรับวิธีการดังกล่าวจะเป็นอย่างไร
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.