คำถามติดแท็ก frequentist

ในวิธีการอนุมานเพื่ออนุมานขั้นตอนทางสถิติได้รับการประเมินโดยการปฏิบัติงานของพวกเขาในระยะยาวของการทำซ้ำของกระบวนการที่ถือว่าเป็นการสร้างข้อมูล

6
Bayesian กับการตีความความน่าจะเป็นบ่อยครั้ง
ใครสามารถให้บทสรุปที่ดีเกี่ยวกับความแตกต่างระหว่าง Bayesian กับแนวทางความน่าจะเป็นที่เกิดขึ้นเป็นประจำ จากสิ่งที่ฉันเข้าใจ: มุมมองผู้ใช้บ่อยคือข้อมูลเป็นตัวอย่างแบบสุ่มที่ทำซ้ำได้ (ตัวแปรสุ่ม) ที่มีความถี่ / ความน่าจะเป็นเฉพาะ (ซึ่งถูกกำหนดให้เป็นความถี่สัมพัทธ์ของเหตุการณ์เมื่อจำนวนการทดลองเข้าใกล้อนันต์) พารามิเตอร์พื้นฐานและความน่าจะเป็นยังคงที่ในระหว่างกระบวนการทำซ้ำนี้และการเปลี่ยนแปลงนั้นเกิดจากความแปรปรวนในและไม่ใช่การแจกแจงความน่าจะเป็น (ซึ่งได้รับการแก้ไขสำหรับเหตุการณ์ / กระบวนการที่แน่นอน)XnXnX_n มุมมองแบบเบย์คือข้อมูลได้รับการแก้ไขในขณะที่ความถี่ / ความน่าจะเป็นสำหรับเหตุการณ์บางอย่างสามารถเปลี่ยนได้ซึ่งหมายความว่าพารามิเตอร์ของการกระจายการเปลี่ยนแปลง ผลข้อมูลที่คุณได้รับการเปลี่ยนแปลงการกระจายก่อนหน้าของพารามิเตอร์ที่ได้รับการปรับปรุงสำหรับชุดข้อมูลแต่ละชุด สำหรับฉันดูเหมือนว่าวิธีปฏิบัติบ่อยครั้งนั้นใช้งานได้จริง / มีเหตุผลมากกว่าเพราะมันสมเหตุสมผลว่าเหตุการณ์มีความเป็นไปได้ที่เฉพาะเจาะจงและการเปลี่ยนแปลงนั้นอยู่ในการสุ่มตัวอย่างของเรา นอกจากนี้การวิเคราะห์ข้อมูลส่วนใหญ่จากการศึกษามักจะทำโดยใช้วิธีการแบบประจำ (เช่นช่วงความมั่นใจการทดสอบสมมติฐานด้วยค่า p ฯลฯ ) เนื่องจากสามารถเข้าใจได้ง่าย ฉันแค่สงสัยว่าจะมีใครสรุปสรุปการตีความของพวกเขาเกี่ยวกับวิธีการแบบเบส์ vs บ่อยครั้งหรือไม่รวมถึงค่าทางสถิติแบบเบส์ของค่า p-value และช่วงความมั่นใจ นอกจากนี้ตัวอย่างที่เฉพาะเจาะจงของวิธีการที่ 1 จะได้รับการชื่นชมมากกว่าวิธีอื่น ๆ

5
นักสถิติการทำงานสนใจเกี่ยวกับความแตกต่างระหว่างการอนุมานแบบประจำและแบบเบย์หรือไม่?
ในฐานะคนนอกดูเหมือนว่ามีสองมุมมองการแข่งขันว่าควรทำการอนุมานทางสถิติอย่างไร ทั้งสองวิธีที่แตกต่างกันทั้งสองพิจารณาว่าถูกต้องโดยนักสถิติการทำงาน? การเลือกคำถามหนึ่งถือเป็นคำถามเชิงปรัชญามากกว่านี้หรือไม่? หรือสถานการณ์ปัจจุบันถือเป็นปัญหาและมีความพยายามที่จะรวมวิธีการต่าง ๆ เข้าด้วยกัน?

5
ลองคิดเหมือนเบย์เซียนลองดูบ่อยครั้ง: นั่นหมายความว่ายังไง?
ฉันกำลังดูสไลด์บรรยายในหลักสูตรวิทยาศาสตร์ข้อมูลที่สามารถพบได้ที่นี่: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf ฉันโชคไม่ดีที่ไม่สามารถดูวิดีโอสำหรับการบรรยายนี้และ ณ จุดหนึ่งบนสไลด์พรีเซนเตอร์มีข้อความต่อไปนี้: หลักการสำคัญบางประการ คิดเหมือนชาว Bayesian ทำเครื่องหมายเหมือนเป็นผู้ใช้บ่อย (การกระทบยอด) ไม่มีใครรู้ว่าสิ่งที่จริงหมายถึงอะไร ฉันมีความรู้สึกว่ามีความเข้าใจที่ดีเกี่ยวกับโรงเรียนแห่งความคิดสองแห่งที่จะรวบรวมจากสิ่งนี้

8
ฉันควรจะสอนแบบเบย์หรือสถิติผู้ใช้บ่อยก่อน
ฉันกำลังช่วยลูก ๆ ของฉันอยู่ในโรงเรียนมัธยมเข้าใจสถิติและฉันกำลังพิจารณาเริ่มต้นด้วยตัวอย่างง่ายๆโดยไม่มองข้ามทฤษฎี เป้าหมายของฉันคือการทำให้พวกเขามีวิธีการที่ใช้งานง่ายและสร้างสรรค์ที่สุดเพื่อเรียนรู้สถิติตั้งแต่เริ่มต้นเพื่อกระตุ้นความสนใจในการติดตามสถิติและการเรียนรู้เชิงปริมาณเพิ่มเติม ก่อนที่จะเริ่มต้นฉันมีคำถามเฉพาะที่มีนัยโดยทั่วไป: เราควรเริ่มสอนสถิติโดยใช้ Bayesian หรือกรอบบ่อยๆหรือไม่? การค้นคว้ารอบตัวฉันได้เห็นแล้วว่าวิธีการทั่วไปนั้นเริ่มต้นด้วยการแนะนำสั้น ๆ เกี่ยวกับสถิติผู้ใช้บ่อยตามด้วยการอภิปรายเชิงลึกของสถิติแบบเบย์ (เช่นStangl )

5
ช่วงความมั่นใจพูดถึงความแม่นยำอย่างไร (ถ้ามี)
Morey et al (2015) ยืนยันว่าช่วงความเชื่อมั่นนั้นทำให้เข้าใจผิดและมีอคติหลายประการที่เกี่ยวข้องกับความเข้าใจของพวกเขา ในบรรดาคนอื่น ๆ พวกเขาอธิบายถึงการเข้าใจผิดอย่างแม่นยำดังต่อไปนี้: ความแม่นยำผิดพลาด ความกว้างของช่วงความมั่นใจบ่งบอกถึงความแม่นยำของความรู้ของเราเกี่ยวกับพารามิเตอร์ ช่วงความมั่นใจแคบแสดงความรู้ที่แม่นยำในขณะที่ข้อผิดพลาดความมั่นใจกว้างแสดงความรู้ที่ไม่แม่นยำ ไม่มีการเชื่อมต่อที่จำเป็นระหว่างความแม่นยำของการประมาณและขนาดของช่วงความมั่นใจ วิธีหนึ่งในการดูสิ่งนี้คือจินตนาการนักวิจัยสองคน - นักวิจัยอาวุโสและนักศึกษาปริญญาเอกกำลังวิเคราะห์ข้อมูลจากผู้เข้าร่วมคนจากการทดลอง ในฐานะที่เป็นแบบฝึกหัดเพื่อประโยชน์ของนักศึกษาปริญญาเอกนักวิจัยอาวุโสตัดสินใจที่จะสุ่มแบ่งผู้เข้าร่วมออกเป็นสองชุดจากชุดเพื่อให้พวกเขาแต่ละคนสามารถแยกวิเคราะห์ครึ่งชุดข้อมูล ในการประชุมครั้งหลังทั้งสองร่วมกันกับอีกคนหนึ่งของพวกเขาของนักเรียนช่วงความเชื่อมั่นสำหรับค่าเฉลี่ย ปริญญาเอกของนักเรียน CI เป็นและนักวิจัยอาวุโสของ CI เป็น425 t 95 % 52 ± 2 95 % 53 ± 4505050252525ttt95%95%95\%52±252±252 \pm 295%95%95\%53±453±453 \pm 4 นักวิจัยอาวุโสตั้งข้อสังเกตว่าผลลัพธ์ของพวกเขามีความสอดคล้องกันอย่างกว้างขวางและพวกเขาสามารถใช้ค่าเฉลี่ยถ่วงน้ำหนักเท่ากันของการประมาณจุดสองจุดของพวกเขา52.552.552.5ซึ่งเป็นการประเมินโดยรวมของค่าเฉลี่ยที่แท้จริง อย่างไรก็ตามนักศึกษาปริญญาเอกระบุว่าวิธีการทั้งสองของพวกเขาไม่ควรมีน้ำหนักเท่ากัน: เธอตั้งข้อสังเกตว่า CI ของเธอกว้างกว่าครึ่งและระบุว่าการประเมินของเธอแม่นยำกว่าและควรให้น้ำหนักมากกว่า บันทึกที่ปรึกษาของเธอที่ว่านี้ไม่สามารถจะถูกต้องเพราะการประมาณการจากน้ำหนักไม่สม่ำเสมอทั้งสองวิธีจะแตกต่างจากการประเมินจากการวิเคราะห์ข้อมูลที่สมบูรณ์ชุดซึ่งจะต้องเป็น52.552.552.552.5ความผิดพลาดของนักศึกษาระดับปริญญาเอกคือสมมติว่า CIs ระบุความถูกต้องของข้อมูลภายหลังโดยตรง ตัวอย่างข้างต้นดูเหมือนจะทำให้เข้าใจผิด ถ้าเราสุ่มแบ่งครึ่งเป็นสองตัวอย่างเราจะคาดหวังว่าค่าเฉลี่ยตัวอย่างและข้อผิดพลาดมาตรฐานจะใกล้เคียงกัน ในกรณีเช่นนี้ไม่ควรมีความแตกต่างระหว่างการใช้ค่าเฉลี่ยถ่วงน้ำหนัก (เช่นถ่วงน้ำหนักด้วยข้อผิดพลาดผกผัน) และการใช้ค่าเฉลี่ยเลขคณิตอย่างง่าย …

5
วิธีจัดการกับข้อมูลแบบลำดับชั้น / ซ้อนในการเรียนรู้ของเครื่อง
ฉันจะอธิบายปัญหาด้วยตัวอย่าง สมมติว่าคุณต้องการที่จะทำนายรายได้ของแต่ละบุคคลที่มีคุณลักษณะบางอย่าง: {อายุ, เพศ, ประเทศ, ภูมิภาค, เมือง} คุณมีชุดข้อมูลการฝึกอบรมเช่นนั้น train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
ทำไมชื่อ Type 1, 2 error
อะไรคือแรงจูงใจในการแนะนำระดับเพิ่มเติมของการอ้อมไปจากเชิงพรรณนา 'false positive' ถึงจำนวนเต็ม '1'? 'บวกผิด' ยาวเกินไปจริง ๆ หรือ

3
มีความแตกต่างระหว่างผู้ถี่ถ้วนและเบย์ในคำจำกัดความของความน่าจะเป็นหรือไม่?
บางแหล่งกล่าวว่าฟังก์ชันความน่าจะเป็นไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไขบางคนบอกว่าเป็น นี่ทำให้ฉันสับสนมาก จากแหล่งข้อมูลส่วนใหญ่ที่ฉันเคยเห็นความน่าจะเป็นของการกระจายด้วยพารามิเตอร์ควรเป็นผลคูณของฟังก์ชันความน่าจะเป็นที่ได้รับจากตัวอย่างของ :θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) ตัวอย่างเช่นใน Logistic Regression เราใช้อัลกอริธึมการปรับให้เหมาะสมเพื่อเพิ่มฟังก์ชั่นความน่าจะเป็นสูงสุด (การประมาณความน่าจะเป็นสูงสุด) เพื่อให้ได้พารามิเตอร์ที่ดีที่สุด จากตัวอย่างการฝึกอบรมซึ่งเราคิดว่าเป็นอิสระจากกันเราต้องการเพิ่มผลลัพธ์ของความน่าจะเป็นสูงสุด (หรือฟังก์ชั่นมวลความน่าจะเป็นร่วม) ดูเหมือนว่าฉันจะค่อนข้างชัดเจนnnn ตามความสัมพันธ์ระหว่าง: ความน่าจะเป็น, ความน่าจะเป็นตามเงื่อนไขและอัตราความล้มเหลว "ความน่าจะเป็นไม่ใช่ความน่าจะเป็นและไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไข" นอกจากนี้ยังกล่าวถึง"ความน่าจะเป็นคือความน่าจะเป็นแบบมีเงื่อนไขเฉพาะในการทำความเข้าใจความน่าจะเป็นแบบเบย์เช่นถ้าคุณคิดว่าเป็นตัวแปรสุ่ม"θθ\theta ฉันอ่านเกี่ยวกับมุมมองที่แตกต่างกันของการรักษาปัญหาการเรียนรู้ระหว่างผู้ใช้บ่อยและ Bayesian แหล่งอ้างอิงสำหรับการอนุมานแบบเบส์เรามีความสำคัญ , โอกาสและเราต้องการที่จะได้รับหลังโดยใช้ทฤษฎีบทแบบเบส์:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} ฉันไม่คุ้นเคยกับการอนุมานแบบเบย์ เหตุใดซึ่งเป็นการกระจายของข้อมูลที่สังเกตตามเงื่อนไขในพารามิเตอร์ของมันก็ถูกเรียกว่าเป็นไปได้หรือไม่? ในวิกิพีเดียมันบอกว่าบางครั้งมันก็เป็นลายลักษณ์อักษรtheta) สิ่งนี้หมายความว่า?P(X|θ)P(X|θ)P(X|\theta)L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta) มีความแตกต่างระหว่างคำจำกัดความของ Frequentistist และ Bayesian เกี่ยวกับความเป็นไปได้หรือไม่? ขอบคุณ แก้ไข: มีหลายวิธีในการตีความทฤษฎีบทของเบย์ - การตีความแบบเบย์และการตีความบ่อย (ดู: ทฤษฎีบทของเบย์ - วิกิพีเดีย …

4
ค่าที่ถูกต้องสำหรับความแม่นยำและการเรียกคืนในกรณีขอบคืออะไร?
ความแม่นยำหมายถึง: p = true positives / (true positives + false positives) มันถูกต้องหรือไม่ที่ในฐานะtrue positivesและfalse positivesวิธีที่ 0 ความแม่นยำเข้าใกล้ 1? คำถามเดียวกันสำหรับการเรียกคืน: r = true positives / (true positives + false negatives) ขณะนี้ฉันกำลังใช้การทดสอบทางสถิติที่ฉันต้องการคำนวณค่าเหล่านี้และบางครั้งมันก็เกิดขึ้นที่ตัวส่วนเป็น 0 และฉันสงสัยว่าจะคืนค่าใดให้กับกรณีนี้ PS: ขอโทษแท็กที่ไม่เหมาะสมผมอยากจะใช้recall, precisionและlimitแต่ฉันไม่สามารถสร้างแท็กใหม่ ๆ
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

5
เมื่อใดที่คุณสามารถใช้เกณฑ์ตามข้อมูลเพื่อระบุรูปแบบการถดถอย
ฉันได้ยินมาว่าเมื่อข้อกำหนดตัวแบบการถดถอยจำนวนมาก (พูดใน OLS) ได้รับการพิจารณาว่าเป็นไปได้สำหรับชุดข้อมูลสิ่งนี้ทำให้เกิดปัญหาการเปรียบเทียบหลายอย่างและค่า p และค่าช่วงความเชื่อมั่นไม่น่าเชื่อถืออีกต่อไป ตัวอย่างที่สำคัญอย่างหนึ่งคือการถดถอยแบบขั้นตอน ฉันจะใช้ข้อมูลตัวเองเพื่อช่วยระบุรูปแบบได้เมื่อใดและนี่เป็นวิธีการที่ไม่ถูกต้องหรือไม่ คุณจำเป็นต้องมีทฤษฎีตามหัวข้อเพื่อสร้างแบบจำลองหรือไม่?

2
อะไรคือสิ่งที่ / นัยในสถิติบ่อย ๆ คืออะไร?
ฉันเคยได้ยินความคิดที่ว่าเจย์เนสอ้างว่าผู้ใช้บ่อยใช้งานด้วย "โดยปริยายมาก่อน" นักบวชโดยนัยคืออะไรหรือ นี่หมายความว่าแบบจำลองผู้ใช้ประจำเป็นกรณีพิเศษทั้งหมดของแบบจำลอง Bayesian ที่รอการค้นพบหรือไม่?

2
เหตุใดการประมาณการความเป็นไปได้สูงสุดจึงถือเป็นเทคนิคบ่อยครั้ง
สถิติสำหรับฉันมีความหมายเหมือนกันสำหรับความพยายามในการตัดสินใจที่ดีสำหรับตัวอย่างที่เป็นไปได้ทั้งหมด นั่นคือกฎการตัดสินใจที่ใช้บ่อยควรพยายามลดความเสี่ยงที่บ่อยครั้งซึ่งขึ้นอยู่กับฟังก์ชันการสูญเสียและสถานะที่แท้จริงของธรรมชาติ :δδ\deltaLLLθ0θ0\theta_0 Rฉr e q= Eθ0( L ( θ)0, δ( Y) )RฉRอีQ=Eθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) การประมาณความน่าจะเป็นสูงสุดนั้นเชื่อมโยงกับความเสี่ยงบ่อยเพียงใด ระบุว่าเป็นเทคนิคการประมาณค่าที่ใช้มากที่สุดที่ผู้ใช้บ่อยต้องมีการเชื่อมต่อ เท่าที่ฉันทราบการประมาณความน่าจะเป็นสูงสุดนั้นเก่ากว่าแนวคิดเรื่องความเสี่ยงบ่อย แต่ก็ยังคงต้องมีการเชื่อมโยงกันทำไมคนจำนวนมากถึงอ้างว่ามันเป็นเทคนิคที่ใช้บ่อย? การเชื่อมต่อที่ใกล้ที่สุดที่ฉันได้พบคือ "สำหรับแบบจำลองพารามิเตอร์ที่ตอบสนองสภาวะความอ่อนแอทำให้ตัวประมาณความน่าจะเป็นสูงสุดคือประมาณขั้นต่ำสุด" Wassermann 2006, p. 201 " คำตอบที่ได้รับการยอมรับจะเชื่อมโยงการประมาณค่าความน่าจะเป็นระดับสูงสุดกับความเสี่ยงของผู้ใช้บ่อยหรือให้คำจำกัดความทางเลือกอย่างเป็นทางการของการอนุมานของผู้ที่แสดงให้เห็นว่า MLE เป็นเทคนิคการอนุมานแบบบ่อยๆ

2
หากหลักการความน่าจะเป็นขัดแย้งกับความน่าจะเป็นที่เกิดขึ้นบ่อยครั้งเราจะยกเลิกหนึ่งในนั้นหรือไม่?
ในความคิดเห็นเพิ่งโพสต์ที่นี่ผู้วิจารณ์คนหนึ่งชี้ไปที่บล็อกของLarry Wassermanผู้ชี้ให้เห็น (โดยไม่มีแหล่งที่มา) ที่การอนุมานบ่อย ๆ ปะทะกับหลักการความน่าจะเป็น หลักการความน่าจะเป็นเพียงกล่าวว่าการทดลองที่ให้ฟังก์ชันความน่าจะเป็นที่คล้ายกันควรให้ข้อสรุปที่คล้ายคลึงกัน คำถามสองส่วนนี้: ส่วนใดกลิ่นรสหรือโรงเรียนที่มีการอนุมานเป็นประจำละเมิดหลักการความน่าจะเป็นโดยเฉพาะ? หากมีการปะทะกันเราต้องยกเลิกอย่างใดอย่างหนึ่งหรือไม่? ถ้าใช่แล้วอันไหนล่ะ? ฉันจะขอแนะนำว่าถ้าเราต้องทิ้งอะไรเราควรทิ้งส่วนของการอนุมานที่พบบ่อยซึ่งการปะทะกันเนื่องจากการแฮ็กและRoyallทำให้ฉันเชื่อว่าหลักการความน่าจะเป็นจริงเป็นจริง

3
สถิติแบบเบย์อย่างแท้จริงเป็นการปรับปรุงทางสถิติแบบดั้งเดิม (บ่อยครั้ง) สำหรับการวิจัยเชิงพฤติกรรมหรือไม่?
ในขณะที่เข้าร่วมการประชุมมีการผลักดันเล็กน้อยจากผู้สนับสนุนของสถิติแบบเบย์สำหรับการประเมินผลการทดลอง มันได้รับการโอ้อวดว่ามีทั้งความละเอียดอ่อนที่เหมาะสมและเลือกที่มีต่อการค้นพบของแท้ (บวกเท็จน้อยกว่า) กว่าสถิติบ่อยครั้ง ฉันสำรวจหัวข้อบ้างแล้วและฉันก็ยังไม่มั่นใจในประโยชน์ที่ได้รับจากการใช้สถิติแบบเบย์ การวิเคราะห์แบบเบย์ถูกใช้เพื่อหักล้างการวิจัยของดาริลเบมที่สนับสนุนการคิดล่วงหน้าอย่างไรก็ตามฉันยังคงสงสัยอย่างรอบคอบเกี่ยวกับวิธีการวิเคราะห์แบบเบย์อาจมีประโยชน์แม้กระทั่งงานวิจัยของฉันเอง ดังนั้นฉันอยากรู้เกี่ยวกับสิ่งต่อไปนี้: พลังในการวิเคราะห์แบบเบย์กับการวิเคราะห์ที่ใช้บ่อย ข้อผิดพลาดความไวต่อการพิมพ์ 1 ในการวิเคราะห์แต่ละประเภท การแลกเปลี่ยนในความซับซ้อนของการวิเคราะห์ (Bayesian ดูซับซ้อนกว่า) กับผลประโยชน์ที่ได้รับ การวิเคราะห์ทางสถิติแบบดั้งเดิมนั้นตรงไปตรงมาพร้อมแนวทางที่เป็นที่ยอมรับสำหรับข้อสรุปการวาด ความเรียบง่ายอาจถูกมองว่าเป็นประโยชน์ คุ้มค่าไหมที่จะยอมแพ้? ขอบคุณสำหรับความเข้าใจใด ๆ !

4
เมื่อใดวิธีการแบบเบย์จึงเป็นที่นิยมสำหรับผู้นิยมใช้บ่อย
ฉันต้องการเรียนรู้เกี่ยวกับเทคนิคแบบเบย์ดังนั้นฉันจึงพยายามสอนตัวเองเล็กน้อย อย่างไรก็ตามฉันมีช่วงเวลาที่ยากลำบากในการดูเมื่อใช้เทคนิคแบบเบย์ที่เคยได้รับประโยชน์มากกว่าวิธีการแบบใช้บ่อย ตัวอย่างเช่น: ฉันเคยเห็นในงานวรรณกรรมมาบ้างเกี่ยวกับวิธีที่บางคนใช้นักบวชที่ให้ข้อมูลในขณะที่คนอื่นใช้วิธีที่ไม่ให้ข้อมูลมาก่อน แต่ถ้าคุณใช้แบบไม่ให้ข้อมูลมาก่อน (ซึ่งดูเหมือนว่าเป็นเรื่องธรรมดาจริง ๆ ?) และคุณพบว่าการแจกแจงแบบหลังนั้นคือการแจกแจงแบบเบต้า ... คุณจะไม่พอดีกับการแจกแจงแบบเบต้าในตอนแรกและเรียกว่า มันดี? ฉันไม่เห็นวิธีการสร้างการกระจายก่อนหน้านี้ที่บอกอะไรคุณไม่ได้ ... สามารถบอกอะไรคุณได้จริงเหรอ? มันกลับกลายเป็นว่าวิธีการบางอย่างที่ฉันใช้ใน R ใช้วิธีผสมระหว่างแบบเบย์และแบบผู้ใช้ประจำ (ผู้เขียนยอมรับว่านี่ค่อนข้างไม่สอดคล้องกัน) และฉันไม่สามารถแยกแยะว่าส่วนใดเป็นแบบเบส์ นอกเหนือจากการกระจายตัวที่เหมาะสมฉันไม่สามารถเข้าใจวิธีที่คุณจะใช้วิธีการแบบเบย์ มี "การถดถอยแบบเบย์" หรือไม่? มันจะมีหน้าตาเป็นอย่างไร? ทั้งหมดที่ฉันจินตนาการได้คือการเดาว่ามีการแจกแจงพื้นฐานซ้ำแล้วซ้ำอีกในขณะที่นักคิดประจำคิดเกี่ยวกับข้อมูลบางอย่างมองมันเห็นการกระจายของปัวซองและเรียกใช้ GLM (นี่ไม่ใช่คำวิจารณ์ ... ฉันแค่ไม่เข้าใจจริงๆ!) ดังนั้น .. บางทีตัวอย่างเบื้องต้นบางอย่างอาจช่วยได้? และถ้าคุณรู้ถึงการอ้างอิงที่ใช้ได้จริงสำหรับผู้เริ่มต้นตัวจริงเช่นฉันนั่นก็จะเป็นประโยชน์เช่นกัน!

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.