คำถามติดแท็ก hypothesis-testing

การทดสอบสมมติฐานจะประเมินว่าข้อมูลไม่สอดคล้องกับสมมติฐานที่กำหนดแทนที่จะเป็นผลของความผันผวนแบบสุ่มหรือไม่

1
ทำไมต้องทดสอบ Levene ของความแตกต่างของความแปรปรวนมากกว่าอัตราส่วน F
SPSS ใช้การทดสอบ Levene เพื่อประเมินความสม่ำเสมอของความแปรปรวนในขั้นตอนการทดสอบกลุ่มอิสระ ทำไมการทดสอบ Levene ถึงดีกว่าอัตราส่วน F อย่างง่ายของอัตราส่วนของความแปรปรวนของทั้งสองกลุ่ม?

3
ฉันจะคำนวณระยะขอบของข้อผิดพลาดในผลลัพธ์ NPS (คะแนนโปรโมเตอร์สุทธิ) ได้อย่างไร
ฉันจะให้วิกิพีเดียอธิบายวิธีคำนวณNPS : คะแนนโปรโมเตอร์สุทธินั้นได้มาจากการถามคำถามเดียวกับลูกค้าในระดับคะแนน 0 ถึง 10 โดยที่ 10 คือ "มีโอกาสสูงมาก" และ 0 คือ "ไม่น่าจะเป็นไปได้มาก": "เป็นไปได้มากเพียงใดที่คุณจะแนะนำ บริษัท ของเรา เพื่อนหรือเพื่อนร่วมงาน? " ขึ้นอยู่กับการตอบสนองของพวกเขาลูกค้าแบ่งออกเป็นหนึ่งในสามกลุ่ม: ผู้สนับสนุน (9–10 คะแนน), Passives (7–8 คะแนน), และผู้ว่า (0–6 คะแนน) เปอร์เซ็นต์ของ Detractors จะถูกหักออกจากเปอร์เซ็นต์ของผู้สนับสนุนเพื่อรับคะแนน Net Promoter (NPS) NPS สามารถอยู่ในระดับต่ำถึง -100 (ทุกคนเป็นผู้ทำลาย) หรือสูงถึง +100 (ทุกคนเป็นผู้ก่อการ) เราดำเนินการสำรวจนี้เป็นระยะเวลาหลายปี เราได้รับคำตอบหลายร้อยครั้งในแต่ละครั้ง คะแนนที่ได้นั้นแตกต่างกันไปตามระยะเวลา 20-30 คะแนน ฉันพยายามคิดว่าการเคลื่อนไหวของคะแนนใดมีความสำคัญถ้ามี หากสิ่งนั้นพิสูจน์ได้ยากเกินไปฉันก็สนใจที่จะพยายามหาข้อผิดพลาดพื้นฐานของการคำนวณ ระยะขอบของข้อผิดพลาดของ …

5
ตัวอย่างของค่าสัมประสิทธิ์สหสัมพันธ์ที่แข็งแกร่งกับค่า p สูง
ฉันสงสัยว่าเป็นไปได้หรือไม่ที่จะมีค่าสัมประสิทธิ์สหสัมพันธ์ที่สูงมาก (พูด. 9 หรือสูงกว่า) ด้วยค่า p สูง (พูด. 25 หรือสูงกว่า)? นี่คือตัวอย่างของสัมประสิทธิ์สหสัมพันธ์ต่ำที่มีค่า p สูง: set.seed(10) y <- rnorm(100) x <- rnorm(100)+.1*y cor.test(x,y) cor = 0.03908927, p = 0.6994 สัมประสิทธิ์สหสัมพันธ์สูงค่า p ต่ำ: y <- rnorm(100) x <- rnorm(100)+2*y cor.test(x,y) cor = 0.8807809, p = 2.2e-16 ค่าสัมประสิทธิ์สหสัมพันธ์ต่ำค่า p ต่ำ: y <- rnorm(100000) x …

4
จะทดสอบได้อย่างไรว่าการกระจายตัวของฉันนั้นต่อเนื่องหลายรูปแบบ?
เมื่อฉันพล็อตฮิสโตแกรมของข้อมูลของฉันมันมีสองจุด: นั่นหมายความว่าอาจมีการกระจายแบบหลายโหมดหรือไม่? ฉันวิ่งdip.testใน R ( library(diptest)) และผลลัพธ์คือ: D = 0.0275, p-value = 0.7913 ฉันสามารถสรุปได้ว่าข้อมูลของฉันมีการกระจายหลายโหมด? ข้อมูล 10346 13698 13894 19854 28066 26620 27066 16658 9221 13578 11483 10390 11126 13487 15851 16116 24102 30892 25081 14067 10433 15591 8639 10345 10639 15796 14507 21289 25444 26149 23612 19671 12447 13535 10667 …

2
ตัวอย่างขนาดเล็กสามารถทำให้เกิดข้อผิดพลาดประเภท 1 ได้หรือไม่
ฉันได้เรียนรู้ว่าตัวอย่างขนาดเล็กอาจนำไปสู่การใช้พลังงานไม่เพียงพอและข้อผิดพลาดประเภท 2 อย่างไรก็ตามฉันมีความรู้สึกว่าตัวอย่างขนาดเล็กอาจไม่น่าเชื่อถือโดยทั่วไปและอาจนำไปสู่ผลลัพธ์ใด ๆ โดยบังเอิญ มันเป็นเรื่องจริงเหรอ?

4
วิธีการฉายเวกเตอร์ใหม่บนพื้นที่ PCA?
หลังจากทำการวิเคราะห์องค์ประกอบหลัก (PCA) ฉันต้องการฉายเวกเตอร์ใหม่ลงบนพื้นที่ PCA (เช่นค้นหาพิกัดในระบบพิกัด PCA) ผมได้คำนวณ PCA ในภาษา R prcompโดยใช้ ตอนนี้ฉันควรคูณเวกเตอร์ของฉันด้วยเมทริกซ์การหมุน PCA ควรจัดองค์ประกอบหลักในเมทริกซ์นี้เป็นแถวหรือคอลัมน์?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
FPR (อัตราบวกเป็นเท็จ) เทียบกับ FDR (อัตราการค้นพบที่ผิด)
ข้อความต่อไปนี้มาจากบทความวิจัยที่มีชื่อเสียงนัยสำคัญทางสถิติสำหรับการศึกษาจีโนมไวด์โดย Storey & Tibshirani (2003): ตัวอย่างเช่นอัตราบวกปลอม 5% หมายความว่าโดยเฉลี่ย 5% ของคุณสมบัติที่เป็นโมฆะจริงในการศึกษาจะเรียกว่ามีนัยสำคัญ FDR (อัตราการค้นพบที่ผิดพลาด) ที่ 5% หมายความว่าในทุกฟีเจอร์ที่เรียกว่าสำคัญ 5% ของฟีเจอร์เหล่านี้มีค่าเฉลี่ยโดยแท้จริง ใครสามารถอธิบายสิ่งที่หมายถึงการใช้ตัวอย่างที่เป็นตัวเลขหรือภาพง่าย? ฉันมีเวลายากที่จะเข้าใจความหมายของมัน ฉันพบโพสต์ต่าง ๆ ใน FDR หรือ FPR เพียงอย่างเดียว แต่ไม่พบที่ ๆ ทำการเปรียบเทียบเฉพาะ มันจะดีเป็นพิเศษหากมีผู้เชี่ยวชาญในพื้นที่นี้สามารถแสดงสถานการณ์ที่คนหนึ่งดีกว่าคนอื่นหรือทั้งสองอย่างนั้นดีหรือไม่ดี

4
หากการเปรียบเทียบหลายรายการเป็นแบบ“ วางแผน” คุณยังต้องแก้ไขหลายรายการหรือไม่
ฉันกำลังตรวจสอบกระดาษที่มีการทดสอบ> ทดสอบ 2x2 Chi Square แยกกัน 15 ครั้ง ฉันแนะนำว่าพวกเขาต้องแก้ไขให้ถูกต้องสำหรับการเปรียบเทียบหลาย ๆ ครั้ง แต่พวกเขาได้ตอบว่าการเปรียบเทียบทั้งหมดนั้นมีการวางแผนและดังนั้นจึงไม่จำเป็น ฉันรู้สึกว่าสิ่งนี้จะต้องไม่ถูกต้อง แต่ไม่สามารถค้นหาแหล่งข้อมูลที่ระบุอย่างชัดเจนว่าเป็นกรณีนี้หรือไม่ ใครช่วยได้บ้าง ปรับปรุง: ขอบคุณสำหรับคำตอบที่เป็นประโยชน์ทั้งหมดของคุณ เพื่อตอบสนองต่อคำขอของ @ gung สำหรับข้อมูลเพิ่มเติมเกี่ยวกับการศึกษาและการวิเคราะห์พวกเขากำลังเปรียบเทียบข้อมูลการนับสำหรับผู้เข้าร่วมสองประเภท (นักเรียนที่ไม่ใช่นักเรียน) ในสองเงื่อนไขในช่วงเวลาสามช่วงเวลา การทดสอบ 2x2 Chi Square หลายครั้งจะถูกเปรียบเทียบในแต่ละช่วงเวลาในแต่ละเงื่อนไขสำหรับผู้เข้าร่วมแต่ละประเภท (ถ้าเหมาะสม) เช่นนักเรียนเงื่อนไข 1 ระยะเวลา 1 เทียบกับช่วงเวลา 2) ดังนั้นการวิเคราะห์ทั้งหมดจึงทดสอบสมมติฐานเดียวกัน .

2
พิสูจน์ว่าสถิติ F ตามการกระจายตัวของ F
ในแง่ของคำถามนี้: พิสูจน์ว่าสัมประสิทธิ์ในแบบจำลอง OLS เป็นไปตามการแจกแจงแบบ t- ด้วย (nk) องศาอิสระ ฉันชอบที่จะเข้าใจว่าทำไม F=(TSS−RSS)/(p−1)RSS/(n−p),F=(TSS−RSS)/(p−1)RSS/(n−p), F = \frac{(\text{TSS}-\text{RSS})/(p-1)}{\text{RSS}/(n-p)}, โดยที่คือจำนวนพารามิเตอร์โมเดลและจำนวนการสังเกตและความแปรปรวนรวม,ค่าความแปรปรวนที่เหลือตามการกระจายn T S S R S S F พี- 1 , n - พีpppnnnTSSTSSTSSRSSRSSRSSFp−1,n−pFp−1,n−pF_{p-1,n-p} ฉันต้องยอมรับว่าฉันไม่ได้พยายามพิสูจน์มันเพราะฉันไม่รู้ว่าจะเริ่มจากตรงไหน

2
มีแอปพลิเคชันทางสถิติที่ต้องมีความสอดคล้องที่แข็งแกร่งหรือไม่
ฉันสงสัยว่ามีคนรู้หรือมีแอปพลิเคชันในสถิติที่จำเป็นต้องใช้ตัวประมาณความมั่นคงที่แข็งแกร่งแทนความสอดคล้องที่อ่อนแอ นั่นคือความสอดคล้องที่แข็งแกร่งเป็นสิ่งจำเป็นสำหรับแอปพลิเคชันและแอปพลิเคชันจะไม่ทำงานด้วยความสอดคล้องที่อ่อนแอ

3
p-value 0.04993 เพียงพอที่จะปฏิเสธสมมติฐานว่างได้หรือไม่
ใน Wilcoxon ลงชื่ออันดับทดสอบนัยสำคัญทางสถิติเรามาข้ามข้อมูลบางอย่างที่ผลิต -value ของ0.04993ด้วยเกณฑ์ที่ผลลัพธ์นี้เพียงพอที่จะปฏิเสธสมมติฐานว่างหรือว่าปลอดภัยกว่าที่จะบอกว่าการทดสอบนั้นไม่สามารถสรุปได้เพราะถ้าเราปัดค่า p-value เป็นทศนิยม 3 ตำแหน่งจะกลายเป็นหรือไม่พีพีp0.049930.049930.04993p &lt; 0.05พี&lt;0.05p < 0.050.0500.0500.050

3
ฉันจะใช้การทดสอบอะไรเพื่อยืนยันว่ามีการกระจายสารตกค้างตามปกติ
ฉันมีข้อมูลบางอย่างซึ่งดูจากการพล็อตกราฟของส่วนที่เหลือเทียบกับเวลาเกือบปกติ แต่ฉันต้องการให้แน่ใจ ฉันจะทดสอบความเป็นปกติของข้อผิดพลาดที่เหลือได้อย่างไร?

3
การทดสอบความสำคัญของยอดเขาในความหนาแน่นสเปกตรัม
บางครั้งเราใช้พล็อตความหนาแน่นสเปกตรัมเพื่อวิเคราะห์ช่วงเวลาในอนุกรมเวลา โดยปกติเราวิเคราะห์พล็อตโดยการตรวจสอบด้วยสายตาและจากนั้นพยายามวาดข้อสรุปเกี่ยวกับช่วงเวลา แต่นักสถิติได้ทำการพัฒนาการทดสอบเพื่อตรวจสอบว่าสไปค์ใด ๆ ในพล็อตนั้นแตกต่างจากเสียงสีขาวหรือไม่? ผู้เชี่ยวชาญด้าน R ได้พัฒนาแพ็คเกจใด ๆ สำหรับการวิเคราะห์ความหนาแน่นสเปกตรัมและสำหรับการทำแบบทดสอบนั้นหรือไม่? ดีมากถ้ามีคนช่วยได้ ขอแสดงความนับถือ, P.

10
อันไหนคือสมมติฐานว่าง? ความขัดแย้งระหว่างทฤษฎีวิทยาศาสตร์ตรรกะและสถิติ?
ฉันมีปัญหาในการทำความเข้าใจตรรกะพื้นฐานในการตั้งสมมติฐานว่าง ในเรื่องนี้คำตอบข้อเสนอที่เป็นที่ยอมรับกันโดยทั่วไประบุไว้ว่าสมมติฐานว่างเป็นสมมติฐานว่าจะไม่มีผลกระทบทุกอย่างยังคงเหมือนเดิมคือไม่มีอะไรใหม่ภายใต้ดวงอาทิตย์ สมมติฐานทางเลือกคือสิ่งที่คุณพยายามพิสูจน์เช่นยาตัวใหม่ที่ส่งมอบตามสัญญา ตอนนี้ทฤษฎีทางวิทยาศาสตร์แบบฟอร์มและตรรกะทั่วไปที่เรารู้ว่าเราสามารถปลอมแปลงข้อเสนอได้เท่านั้นเราไม่สามารถพิสูจน์อะไรได้ (ไม่มีหงส์ขาวจำนวนหนึ่งที่สามารถพิสูจน์ได้ว่าหงส์ทั้งหมดเป็นสีขาว แต่หงส์ดำหนึ่งคนพิสูจน์ได้) นี่คือเหตุผลที่เราพยายามพิสูจน์สมมติฐานว่างซึ่งไม่เทียบเท่ากับการพิสูจน์สมมติฐานทางเลือก - และนี่คือจุดที่ความสงสัยของฉันเริ่มต้น - ฉันจะยกตัวอย่างง่ายๆ: สมมติว่าฉันต้องการค้นหาสัตว์ชนิดใดที่อยู่หลังม่าน น่าเสียดายที่ฉันไม่สามารถสังเกตสัตว์โดยตรง แต่ฉันมีการทดสอบที่ให้จำนวนขาของสัตว์นี้ ตอนนี้ฉันมีเหตุผลเชิงตรรกะดังต่อไปนี้: หากสัตว์เป็นสุนัขก็จะมี 4 ขา ถ้าฉันทำการทดสอบและพบว่ามันมี 4 ขานี่ไม่ใช่ข้อพิสูจน์ว่ามันเป็นสุนัข (อาจเป็นม้าแรดหรือสัตว์ 4 ขาอื่น ๆ ) แต่ถ้าฉันพบว่ามันไม่มีขา 4 ตัวนี่เป็นข้อพิสูจน์ที่ชัดเจนว่ามันไม่สามารถเป็นสุนัขได้ (สมมติว่าเป็นสัตว์ที่มีสุขภาพดี) แปลเป็นยาแล้วฉันอยากรู้ว่ายาที่อยู่ข้างหลังม่านนั้นมีประสิทธิภาพหรือไม่ สิ่งเดียวที่ฉันจะได้คือตัวเลขที่ให้เอฟเฟกต์กับฉัน หากเอฟเฟกต์เป็นบวกจะไม่มีสิ่งใดพิสูจน์ได้ (4 ขา) หากไม่มีผลใด ๆ ฉันจะพิสูจน์ประสิทธิภาพของยาเสพติด พูดทั้งหมดนี้ฉันคิดว่า - ตรงกันข้ามกับภูมิปัญญาสามัญ - สมมติฐานว่างที่ถูกต้องเท่านั้นจะต้อง ยาเสพติดที่มีประสิทธิภาพ (เช่น: ถ้ายาที่มีประสิทธิภาพคุณจะเห็นผล) เพราะนี่เป็นสิ่งเดียวที่ฉันสามารถหักล้างได้ - จนถึงรอบต่อไปที่ฉันพยายามจะเจาะจงมากขึ้นเรื่อย ๆ …

1
บทความเกี่ยวกับการใช้สถิติใน NYTimes
ฉันหมายถึงบทความนี้: http://www.nytimes.com/2011/01/11/science/11esp.html พิจารณาการทดลองต่อไปนี้ สมมติว่ามีเหตุผลที่เชื่อได้ว่าเหรียญถูกถ่วงน้ำหนักไว้ที่หัวเล็กน้อย ในการทดสอบเหรียญขึ้นมา 527 ครั้งจาก 1,000 ครั้ง นี่เป็นหลักฐานสำคัญที่บ่งบอกว่าเหรียญมีน้ำหนัก การวิเคราะห์แบบดั้งเดิมบอกว่าใช่ ด้วยเหรียญที่ยุติธรรมโอกาสที่จะได้รับ 527 หรือมากกว่าในการโยน 1,000 ครั้งนั้นน้อยกว่า 1 ใน 20 หรือ 5 เปอร์เซ็นต์ซึ่งเป็นการตัดแบบธรรมดา เพื่อนำไปใช้อีกทางหนึ่ง: การทดลองค้นหาหลักฐานของเหรียญถ่วงน้ำหนัก“ ที่มีความมั่นใจ 95 เปอร์เซ็นต์” แต่นักสถิติหลายคนไม่ซื้อ หนึ่งใน 20 คือความน่าจะเป็นที่จะได้รับจำนวนหัวมากกว่า 526 ต่อ 1,000 ในการโยน นั่นคือมันคือผลรวมของความน่าจะเป็นในการพลิก 527, ความน่าจะเป็นของการพลิก 528, 529 และอื่น ๆ แต่การทดสอบไม่พบตัวเลขทั้งหมดในช่วงนั้น พบว่ามีเพียงหนึ่ง - 527 มันจึงแม่นยำยิ่งขึ้นผู้เชี่ยวชาญเหล่านี้พูดว่าเพื่อคำนวณความน่าจะเป็นที่จะได้เลขหนึ่งนั่นคือ 527 - ถ้าเหรียญนั้นมีน้ำหนักและเปรียบเทียบกับความน่าจะเป็นที่จะได้หมายเลขเดียวกันถ้าเหรียญนั้น …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.