คำถามติดแท็ก false-discovery-rate

เศษส่วนที่คาดหวังของสมมติฐานว่างที่ถูกปฏิเสธซึ่งถูกปฏิเสธอย่างไม่ถูกต้องนั่นคือเศษของการค้นพบที่มีนัยสำคัญซึ่งไม่เป็นความจริง วิธีการหนึ่งในการควบคุม FDR ในการทดสอบหลายครั้งคือขั้นตอน Benjamini-Hochberg

5
ความหมายของ“ การพึ่งพาเชิงบวก” เป็นเงื่อนไขในการใช้วิธีการปกติสำหรับการควบคุม FDR
Benjamini และ Hochberg ได้พัฒนาวิธีแรก (และยังคงใช้กันอย่างแพร่หลายที่สุดผมคิดว่า) สำหรับการควบคุมอัตราการค้นพบที่ผิดพลาด (FDR) ฉันต้องการเริ่มต้นด้วยค่า P จำนวนมากแต่ละค่าสำหรับการเปรียบเทียบที่แตกต่างกันและตัดสินใจว่าค่าใดที่ต่ำพอที่จะเรียกว่า "การค้นพบ" ซึ่งควบคุม FDR ให้เป็นค่าที่ระบุ (พูด 10%) ข้อสันนิษฐานข้อหนึ่งของวิธีการปกติคือชุดการเปรียบเทียบนั้นเป็นอิสระหรือมี "การพึ่งพาเชิงบวก" แต่ฉันไม่สามารถเข้าใจได้อย่างชัดเจนว่าวลีนั้นหมายถึงอะไรในบริบทของการวิเคราะห์ชุดของค่า P

2
อะไรคือความแตกต่างในทางปฏิบัติระหว่าง Benjamini & Hochberg (1995) และ Benjamini & Yekutieli (2001) ขั้นตอนอัตราการค้นพบที่ผิด?
โปรแกรมสถิติของฉันใช้ทั้ง Benjamini และ Hochberg (1995) และ Benjamini & Yekutieli (2001) ขั้นตอนการค้นพบที่ผิด (FDR) ฉันพยายามอ่านบทความต่อไปให้ดีที่สุด แต่มันค่อนข้างหนาแน่นทางคณิตศาสตร์และฉันก็ไม่แน่ใจว่าฉันเข้าใจความแตกต่างระหว่างกระบวนการ ฉันสามารถดูได้จากรหัสอ้างอิงในโปรแกรมสถิติของฉันว่าพวกเขาแตกต่างกันอย่างแน่นอนและที่หลังรวมถึงปริมาณ q ที่ฉันได้เห็นอ้างถึงเกี่ยวกับ FDR แต่ก็ไม่ค่อยเข้าใจ มีเหตุผลใดที่จะชอบขั้นตอนของ Benjamini & Hochberg (1995) เมื่อเทียบกับขั้นตอนของ Benjamini & Yekutieli (2001)? พวกเขามีสมมติฐานที่แตกต่างกันหรือไม่? อะไรคือความแตกต่างในทางปฏิบัติระหว่างแนวทางเหล่านี้ Benjamini, Y. และ Hochberg, Y. (1995) การควบคุมอัตราการค้นพบที่ผิด: วิธีการปฏิบัติและมีประสิทธิภาพในการทดสอบหลายรายการ วารสารสมาคมสถิติราชวงศ์แบบ B, 57, 289–300 Benjamini, Y. และ Yekutieli, D. (2001) การควบคุมอัตราการค้นพบที่ผิดพลาดในการทดสอบหลายรายการภายใต้การพึ่งพา …

5
นักวิจัยแต่ละคนควรคิดอย่างไรเกี่ยวกับอัตราการค้นพบที่ผิด?
ฉันได้พยายามสรุปว่า False Discovery Rate (FDR) ควรแจ้งข้อสรุปของนักวิจัยแต่ละคนอย่างไร ตัวอย่างเช่นถ้าการศึกษาของคุณจะ underpowered คุณควรลดผลลัพธ์ของคุณแม้ว่าพวกเขาจะมีนัยสำคัญที่ ? หมายเหตุ: ฉันกำลังพูดถึง FDR ในบริบทของการตรวจสอบผลลัพธ์ของการศึกษาหลาย ๆ ครั้งในภาพรวมไม่ใช่วิธีการแก้ไขการทดสอบหลายรายการα=.05α=.05\alpha = .05 การสร้างสมมุติฐาน (อาจเผื่อแผ่) ที่ของการทดสอบสมมติฐานเป็นจริงจริง FDR เป็นหน้าที่ของทั้งอัตราการผิดพลาดประเภทที่ 1 และประเภท II ดังต่อไปนี้:∼.5∼.5\sim.5 FDR=αα+1−β.FDR=αα+1−β.\text{FDR} = \frac{\alpha}{\alpha+1-\beta}. มีเหตุผลที่ว่าหากการศึกษามีความไม่เพียงพอเราไม่ควรเชื่อถือผลลัพธ์แม้ว่าจะมีความสำคัญเท่าที่เราจะได้รับการศึกษาอย่างเพียงพอ ดังนั้นตามที่นักสถิติบางคนอาจกล่าวว่ามีสถานการณ์ที่ "ในระยะยาว" เราอาจเผยแพร่ผลลัพธ์ที่สำคัญหลายอย่างที่เป็นเท็จหากเราปฏิบัติตามแนวทางดั้งเดิม หากร่างกายของการวิจัยมีเอกลักษณ์เฉพาะด้วยการศึกษาที่ไม่ได้รับการยอมรับอย่างต่อเนื่อง (เช่นยีนของผู้สมัครวรรณกรรมเกี่ยวกับสภาพแวดล้อมของทศวรรษก่อนหน้า ) แม้กระทั่งการค้นพบที่มีนัยสำคัญที่ทำซ้ำ××\times การใช้แพคเกจการ R extrafont, ggplot2และxkcdผมคิดว่านี่อาจจะมีแนวความคิดที่เป็นประโยชน์ในฐานะที่เป็นปัญหาของมุมมอง: รับข้อมูลนี้สิ่งที่นักวิจัยแต่ละคนควรจะทำอย่างไรต่อไป ? ถ้าฉันเดาได้ว่าขนาดของเอฟเฟกต์ที่ฉันกำลังศึกษาควรจะเป็นขนาดใด (และด้วยการประมาณ1−β1−β1 - \betaตามขนาดตัวอย่างของฉัน) ฉันควรปรับระดับของฉันαα\alphaจนกว่า FDR …

3
ทำไมจึงไม่มีการแก้ไขสมมติฐานหลายข้อที่ใช้กับการทดลองทั้งหมดตั้งแต่เช้าตรู่
เรารู้ว่าเราต้องใช้การแก้ไขที่คล้ายกับ Benjamini Hochberg สำหรับการทดสอบสมมุติฐานหลายครั้งกับการทดลองโดยใช้ชุดข้อมูลเดียวเพื่อควบคุมอัตราการค้นพบที่ผิดพลาดมิฉะนั้นการทดลองทั้งหมดที่ให้ผลบวกอาจเป็นเท็จ แต่ทำไมเราไม่ใช้หลักการเดียวกันนี้กับการทดลองทั้งหมดตั้งแต่ต้นเวลาไม่ว่าข้อมูลจะมาจากไหน ท้ายที่สุดแล้วกว่าครึ่งหนึ่งของผลลัพธ์ทางวิทยาศาสตร์ที่ตีพิมพ์ซึ่งถือว่า "สำคัญ" เป็นที่รู้กันว่าเป็นเท็จและไม่สามารถแก้ไขได้และไม่มีเหตุผลว่าทำไมสิ่งนี้ถึงไม่สามารถทำได้ง่ายเพียง 100% เนื่องจากนักวิทยาศาสตร์มีแนวโน้มที่จะเผยแพร่ผลลัพธ์เชิงบวกเท่านั้นเราจึงไม่มีความคิดเกี่ยวกับจำนวนผลลัพธ์เชิงลบดังนั้นเราจึงไม่มีความคิดว่าสิ่งที่เราเผยแพร่นั้นเป็นผลบวกที่ผิดพลาดเท่านั้น - ผลลัพธ์ในเชิงบวกที่ตัดขึ้นโดยบังเอิญแบบสุ่มภายใต้สมมติฐานว่าง ในขณะเดียวกันไม่มีอะไรที่จะบอกได้ว่าคณิตศาสตร์ที่อยู่เบื้องหลังการแก้ไขการทดสอบสมมติฐานหลายข้อควรนำไปใช้กับผลลัพธ์จากชุดข้อมูลเดียวกันเท่านั้นและไม่เป็นผลจากข้อมูลการทดลองทั้งหมดที่ได้รับเมื่อเวลาผ่านไป ดูเหมือนว่าวิทยาศาสตร์ทั้งหมดได้กลายเป็นหนึ่งในการสำรวจการตกปลาครั้งใหญ่ครั้งหนึ่งซึ่งตั้งอยู่บนสมมติฐานที่ผิด ๆ หรืออ่อนแอดังนั้นเราจะควบคุมสิ่งนี้ได้อย่างไร เราจะควบคุมอัตราการค้นพบที่ผิดพลาดได้อย่างไรหากสิ่งที่เราเคยเผยแพร่นั้นเป็นผลลัพธ์ที่เป็นอิสระโดยไม่ต้องใช้การแก้ไขใด ๆ สำหรับการทดสอบสมมติฐานหลายครั้งกับการทดลองทั้งหมดที่ดำเนินการจนถึงปัจจุบัน เป็นไปได้หรือไม่ที่จะควบคุมอัตราการค้นพบที่ผิดพลาดโดยไม่ใช้การแก้ไขเช่นนี้?

4
การศึกษาที่ไม่ได้ผลนั้นเพิ่มโอกาสในการเกิดผลบวกปลอมหรือไม่?
มีการถามคำถามก่อนหน้านี้ที่นี่และที่นี่แต่ฉันไม่คิดว่าคำตอบจะตอบคำถามนี้โดยตรง การศึกษาที่ไม่ได้ผลนั้นเพิ่มโอกาสในการเกิดผลบวกปลอมหรือไม่? บทความข่าวบางฉบับให้การยืนยันนี้ สำหรับตัวอย่างเช่น : พลังงานทางสถิติต่ำเป็นข่าวร้าย การศึกษาที่อยู่ภายใต้มีแนวโน้มที่จะพลาดผลกระทบของแท้และในกลุ่มที่มีแนวโน้มที่จะรวมผลบวกปลอมที่สูงกว่า - นั่นคือผลกระทบที่มีนัยสำคัญทางสถิติแม้ว่าพวกเขาจะไม่ใช่ของจริง เมื่อฉันเข้าใจแล้วพลังของการทดสอบสามารถเพิ่มขึ้นได้โดย: เพิ่มขนาดตัวอย่าง มีผลขนาดใหญ่ การเพิ่มระดับนัยสำคัญ สมมติว่าเราไม่ต้องการเปลี่ยนระดับนัยสำคัญฉันเชื่อว่าการอ้างอิงข้างต้นหมายถึงการเปลี่ยนขนาดตัวอย่าง อย่างไรก็ตามฉันไม่เห็นว่าการลดตัวอย่างควรเพิ่มจำนวนผลบวกปลอมอย่างไร หากต้องการกล่าวอย่างง่าย ๆ การลดพลังของการศึกษาจะเพิ่มโอกาสของการปฏิเสธที่ผิดซึ่งตอบคำถาม: P( ความล้มเหลวในการปฏิเสธ H0| H0 เป็นเท็จ)P(ความล้มเหลวในการปฏิเสธ H0|H0 เป็นเท็จ)P(\text{failure to reject }H_{0}|H_{0}\text{ is false}) ตรงกันข้ามบวกเท็จตอบคำถาม: P( ปฏิเสธ H0| H0 เป็นจริง)P(ปฏิเสธ H0|H0 เป็นความจริง)P(\text{reject }H_{0}|H_{0}\text{ is true}) ทั้งสองเป็นคำถามที่แตกต่างกันเพราะเงื่อนไขแตกต่างกัน พลังงานนั้นเกี่ยวข้องกับการปฏิเสธเชิงลบ แต่จะไม่ส่งผลเชิงบวก ฉันพลาดอะไรไปรึเปล่า?

2
FPR (อัตราบวกเป็นเท็จ) เทียบกับ FDR (อัตราการค้นพบที่ผิด)
ข้อความต่อไปนี้มาจากบทความวิจัยที่มีชื่อเสียงนัยสำคัญทางสถิติสำหรับการศึกษาจีโนมไวด์โดย Storey & Tibshirani (2003): ตัวอย่างเช่นอัตราบวกปลอม 5% หมายความว่าโดยเฉลี่ย 5% ของคุณสมบัติที่เป็นโมฆะจริงในการศึกษาจะเรียกว่ามีนัยสำคัญ FDR (อัตราการค้นพบที่ผิดพลาด) ที่ 5% หมายความว่าในทุกฟีเจอร์ที่เรียกว่าสำคัญ 5% ของฟีเจอร์เหล่านี้มีค่าเฉลี่ยโดยแท้จริง ใครสามารถอธิบายสิ่งที่หมายถึงการใช้ตัวอย่างที่เป็นตัวเลขหรือภาพง่าย? ฉันมีเวลายากที่จะเข้าใจความหมายของมัน ฉันพบโพสต์ต่าง ๆ ใน FDR หรือ FPR เพียงอย่างเดียว แต่ไม่พบที่ ๆ ทำการเปรียบเทียบเฉพาะ มันจะดีเป็นพิเศษหากมีผู้เชี่ยวชาญในพื้นที่นี้สามารถแสดงสถานการณ์ที่คนหนึ่งดีกว่าคนอื่นหรือทั้งสองอย่างนั้นดีหรือไม่ดี

3
ความสับสนกับอัตราการค้นพบที่ผิดและการทดสอบหลายอย่าง (ใน Colquhoun 2014)
ฉันได้อ่านบทความที่ยอดเยี่ยมนี้โดย David Colquhoun: การตรวจสอบอัตราการค้นพบที่ผิดพลาดและการตีความค่า p ผิดพลาด (2014) ในสาระสำคัญที่เขาอธิบายว่าทำไมอัตราการค้นพบที่ผิดพลาด (FDR) สามารถจะสูงถึงแม้ว่าเราควบคุมสำหรับข้อผิดพลาดประเภทที่มี\30 %30%30\%α = 0.05α=0.05\alpha=0.05 อย่างไรก็ตามฉันยังสับสนว่าจะเกิดอะไรขึ้นถ้าฉันใช้การควบคุม FDR ในกรณีของการทดสอบหลายครั้ง บอกเด็ก ๆ ว่าฉันได้ทำการทดสอบตัวแปรแต่ละตัวแล้วและคำนวณค่าโดยใช้ขั้นตอน Benjamini-Hochberg ผมหนึ่งตัวแปรที่มีความสำคัญกับqฉันกำลังถาม FDR สำหรับการค้นพบนี้คืออะไร?QQqQ= 0.049Q=0.049q=0.049 ฉันสามารถสันนิษฐานได้อย่างปลอดภัยว่าในระยะยาวหากฉันทำการวิเคราะห์ดังกล่าวเป็นประจำ FDR ไม่ใช่30 %30%30\%แต่ต่ำกว่า5 %5%5\%เพราะฉันใช้ Benjamini-Hochberg นั่นรู้สึกผิดฉันจะบอกว่าค่าQQq -value สอดคล้องกับค่าพีพีpค่าในกระดาษของ Colquhoun และการใช้เหตุผลของเขาที่นี่เช่นกันดังนั้นการใช้ค่าQQqเกณฑ์ที่0.050.050.05ฉันเสี่ยงที่จะ "ทำให้คนโง่" Colquhoun ใส่ไว้) ใน30 %30%30\%ของคดี อย่างไรก็ตามฉันพยายามอธิบายอย่างเป็นทางการมากกว่าและล้มเหลว

1
ความหมายภาษาธรรมดาของการทดสอบแบบ "พึ่งพา" และ "อิสระ" ในวรรณคดีเปรียบเทียบหลายรายการ?
ในทั้งวรรณกรรมอัตราข้อผิดพลาดครอบครัว (FWER) และอัตราการค้นพบที่ผิดพลาด (FDR), วิธีการเฉพาะในการควบคุม FWER หรือ FDR กล่าวว่ามีความเหมาะสมกับการทดสอบขึ้นอยู่กับหรืออิสระ ตัวอย่างเช่นในปี 1979 บทความ "ขั้นตอนการทดสอบการปฏิเสธหลายครั้งอย่างง่าย ๆ " โฮล์มเขียนเพื่อเปรียบเทียบวิธีการแบบupidákแบบ step-up contrastidákกับวิธีการควบคุม Bonferroni แบบขั้นตอนของเขา: ความเรียบง่ายในการคำนวณเดียวกันจะได้รับเมื่อสถิติการทดสอบมีความเป็นอิสระ ใน "การควบคุมอัตราการค้นพบที่ผิด" โดย Benjamini และ Hochberg (1995) ผู้เขียนเขียน: ทฤษฎีบท 1.สำหรับอิสระสถิติการทดสอบและการกำหนดค่าของสมมติฐานที่ผิดพลาดใด ๆ ดังกล่าวข้างต้นการควบคุมขั้นตอนที่ FDR *q∗q∗q^{*} ต่อมาในปี 2544 เบญจมินิและเยคุเตเอลลีเขียน: 1.3 ปัญหาที่เกิดขึ้น เมื่อพยายามที่จะใช้วิธีการ FDR ในทางปฏิบัติสถิติการทดสอบขึ้นอยู่กับการพบบ่อยกว่าคนที่เป็นอิสระตัวอย่างของจุดปลายหลายจุดที่กล่าวถึงข้างต้นเป็นแบบตรงประเด็น ผู้เขียนเหล่านี้ใช้ความหมายใดเป็นพิเศษในการพึ่งพาความเป็นอิสระ ฉันจะมีความสุขกับคำจำกัดความที่เป็นทางการของสิ่งที่ทำให้การทดสอบขึ้นอยู่กับหรือเป็นอิสระจากกันถ้าพวกเขามาพร้อมกับคำอธิบายภาษาธรรมดา ฉันสามารถคิดถึงความหมายต่าง ๆ ที่เป็นไปได้สองสามอย่าง แต่ฉันไม่คิดเลยว่าจะเป็นเช่นนั้น: "Dependent" …

1
เหตุใดการควบคุม FDR จึงเข้มงวดน้อยกว่าการควบคุม FWER
ฉันได้อ่านแล้วว่าการควบคุม FDR นั้นเข้มงวดน้อยกว่าการควบคุม FWER เช่นในWikipedia : ขั้นตอนการควบคุม FDR ออกแรงควบคุมที่เข้มงวดน้อยกว่าการค้นพบที่ผิดพลาดเมื่อเปรียบเทียบกับขั้นตอนอัตราข้อผิดพลาดในระดับครอบครัว (FWER) (เช่นการแก้ไข Bonferroni) สิ่งนี้จะเพิ่มพลังงานที่ค่าใช้จ่ายในการเพิ่มอัตราข้อผิดพลาดประเภทที่ 1 เช่นการปฏิเสธสมมติฐานว่างไม่มีผลเมื่อมันควรได้รับการยอมรับ แต่ฉันสงสัยว่ามันแสดงให้เห็นว่าเป็นจริงทางคณิตศาสตร์ได้อย่างไร มีความสัมพันธ์ระหว่าง FDR และ FWER บ้างไหม

1
สัญชาตญาณของตัวอย่างที่แลกเปลี่ยนได้ภายใต้สมมติฐานว่างคืออะไร
การทดสอบการเปลี่ยนรูป (เรียกอีกอย่างว่าการทดสอบแบบสุ่มการทดสอบแบบสุ่มอีกครั้งหรือการทดสอบที่แน่นอน) มีประโยชน์มากและมีประโยชน์เมื่อสมมติฐานของการแจกแจงปกติที่ต้องการโดยตัวอย่างเช่นt-testไม่พบและเมื่อการเปลี่ยนแปลงของค่าโดยการจัดอันดับ การทดสอบแบบไม่มีพารามิเตอร์Mann-Whitney-U-testจะนำไปสู่การสูญเสียข้อมูลมากขึ้น อย่างไรก็ตามไม่ควรมองข้ามสมมุติฐานข้อเดียวและข้อเดียวเพียงข้อเดียวเมื่อใช้การทดสอบชนิดนี้คือข้อสมมติฐานของความสามารถแลกเปลี่ยนได้ของตัวอย่างภายใต้สมมติฐานว่าง เป็นที่น่าสังเกตว่าวิธีการแบบนี้สามารถใช้ได้เมื่อมีตัวอย่างมากกว่าสองตัวอย่างเช่นสิ่งที่นำไปใช้ในcoinแพ็คเกจ R คุณช่วยกรุณาใช้ภาษาที่เป็นรูปเป็นร่างหรือปรีชาเชิงแนวคิดในภาษาอังกฤษธรรมดาเพื่อแสดงสมมติฐานนี้ได้หรือไม่? นี่จะมีประโยชน์มากในการอธิบายปัญหาที่ถูกมองข้ามในหมู่ผู้ที่ไม่ใช่นักสถิติเช่นฉัน หมายเหตุ: จะเป็นประโยชน์อย่างมากหากพูดถึงกรณีที่การใช้การทดสอบการเปลี่ยนแปลงไม่ถือหรือไม่ถูกต้องภายใต้สมมติฐานเดียวกัน ปรับปรุง: สมมติว่าฉันมี 50 วิชาที่รวบรวมจากคลินิกท้องถิ่นในเขตของฉันโดยการสุ่ม พวกเขาถูกสุ่มให้รับยาหรือยาหลอกในอัตราส่วน 1: 1 พวกเขาทั้งหมดถูกวัดสำหรับ Paramerter 1 Par1ที่ V1 (พื้นฐาน), V2 (3 เดือนต่อมา) และ V3 (1 ปีต่อมา) วิชาทั้งหมด 50 กลุ่มสามารถแบ่งเป็น 2 กลุ่มตามคุณสมบัติ A; ค่าบวก = 20 และค่าลบ = 30 นอกจากนี้ยังสามารถจัดกลุ่มย่อยได้อีก 2 กลุ่มตามคุณลักษณะ B; B positive = …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
คำอธิบายที่เข้าใจง่ายว่าทำไมขั้นตอน FDR ของ Benjamini-Hochberg จึงเป็นเช่นนั้น?
มีวิธีง่าย ๆ ในการอธิบายว่าทำไมขั้นตอนของ Benjamini และ Hochberg (1995) จึงควบคุมอัตราการค้นพบที่ผิดพลาด (FDR) จริงหรือไม่ ขั้นตอนนี้สวยงามและกะทัดรัดและยังพิสูจน์ได้ว่าทำไมมันทำงานภายใต้ความเป็นอิสระ (ปรากฏในภาคผนวกของกระดาษ 1995ของพวกเขา) ไม่สามารถเข้าถึงได้มาก

2
สูตรสำหรับ Benjamini-Hochberg ปรับค่า p เป็นอย่างไร
ฉันเข้าใจขั้นตอนและสิ่งที่ควบคุม ดังนั้นสูตรสำหรับค่า p ที่ปรับในขั้นตอน BH สำหรับการเปรียบเทียบหลายรายการคืออะไร เพียงแค่ตอนนี้ฉันรู้เดิม BH ไม่ได้ผลิตปรับ P-ค่าปรับเท่านั้น (ไม่ใช่) เงื่อนไขการปฏิเสธ: https://www.jstor.org/stable/2346101 Gordon Smyth ได้แนะนำค่า p BH ที่ปรับปรุงใหม่ในปี 2002 อย่างไรก็ตามคำถามยังคงมีอยู่ มันนำมาใช้ในการวิจัยเป็นด้วยวิธีการp.adjustBH

3
โพรซีเดอร์ FDR จะประเมินอัตราการค้นพบที่ผิดโดยไม่มีแบบจำลองของอัตราพื้นฐานได้อย่างไร
บางคนสามารถอธิบายได้ว่าขั้นตอน FDR สามารถประเมิน FDR โดยไม่มีแบบจำลอง / สมมติฐานของอัตราพื้นฐานของผลบวกจริงได้อย่างไร

2
สมมติฐานการพึ่งพา Benjamini-Hochberg เป็นธรรม?
ฉันมีชุดข้อมูลที่ฉันทดสอบความแตกต่างอย่างมีนัยสำคัญระหว่างสามประชากรที่เกี่ยวกับตัวแปรที่แตกต่างกัน 50 รายการ ฉันทำสิ่งนี้โดยใช้การทดสอบ Kruskal-Wallis บนมือข้างหนึ่งและโดยการทดสอบอัตราส่วนความน่าจะเป็นของโมเดล GLM แบบซ้อนกันพอดี (ที่มีและไม่มีประชากรเป็นตัวแปรอิสระ) ในอีกด้านหนึ่ง เป็นผลให้ฉันมีรายชื่อ Kruskal-Wallis ppp- ค่าในมือข้างหนึ่งและสิ่งที่ฉันคิดว่าเป็นไคสแควร์ ppp- ค่าจากการเปรียบเทียบ LRT ที่อื่น ๆ ฉันต้องทำการแก้ไขการทดสอบหลายรูปแบบบางรูปแบบเนื่องจากมีการทดสอบมากกว่า 50 รายการและ Benjamini-Hochberg FDR ดูเหมือนว่าเป็นตัวเลือกที่เหมาะสมที่สุด อย่างไรก็ตามตัวแปรอาจไม่เป็นอิสระโดยมี "แคลน" หลายตัวที่สัมพันธ์กัน คำถามคือ: ฉันจะบอกได้อย่างไรว่าชุดของสถิติพื้นฐานสำหรับฉันppp- ค่าตอบสนองความต้องการของการพึ่งพาในเชิงบวกที่จำเป็นสำหรับกระบวนการ Benjamini-Hochberg ที่จะยังคงผูกพันกับ FDR? กระดาษ Benjamini-Hochberg-Yekutieli จากปี 2544 ระบุว่าสภาพ PRDS มีไว้สำหรับการแจกแจงแบบปกติหลายตัวแปรและการแจกแจงแบบนักศึกษา สิ่งที่เกี่ยวกับการทดสอบอัตราส่วนความน่าจะเป็นของฉันค่าไคสแควร์สำหรับการเปรียบเทียบแบบจำลอง? เกี่ยวกับppp- ค่าที่ฉันมีสำหรับการทดสอบ Kruskal-Wallis? ฉันสามารถใช้การแก้ไข FDR ที่เลวร้ายที่สุดกรณี Benjamini-Hochberg-Yekutieli ที่ไม่มีอะไรขึ้นอยู่กับการพึ่งพา …

1
การควบคุมอัตราการค้นพบที่ผิดพลาดในขั้นตอน
ผมมีตารางสามมิติของขนาด6แต่ละเซลล์ของตารางเป็นการทดสอบสมมติฐาน การแบ่งตารางในมิติที่สามสร้างการทดสอบสมมติฐานชุดซึ่งเป็นอิสระจากชุด แต่ขึ้นอยู่กับชุด เดิมทีฉันคิดว่าฉันสามารถควบคุมอัตราการค้นพบที่ผิดพลาดได้โดยใช้กระบวนการ Benjamini-Hochberg ในการทดสอบสมมติฐานทั้งหมดพร้อมกัน นั่นเป็นวิธีที่เหมาะสมในการโจมตีปัญหานี้หรือไม่? ความคิดที่สองของฉันคือการควบคุมอัตราการค้นพบที่ผิดพลาดภายในแต่ละส่วนตามมิติที่สามของตารางจากนั้นใช้การแก้ไขประเภทอื่นหลังจากนั้น ใครบ้างมีข้อมูลเพิ่มเติมเกี่ยวกับขั้นตอนประเภทนี้?6 × 6 × 816×6×816\times6\times81818181
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.