จะทดสอบได้อย่างไรว่าการกระจายตัวของฉันนั้นต่อเนื่องหลายรูปแบบ?


21

เมื่อฉันพล็อตฮิสโตแกรมของข้อมูลของฉันมันมีสองจุด:

histogram

นั่นหมายความว่าอาจมีการกระจายแบบหลายโหมดหรือไม่? ฉันวิ่งdip.testใน R ( library(diptest)) และผลลัพธ์คือ:

D = 0.0275, p-value = 0.7913

ฉันสามารถสรุปได้ว่าข้อมูลของฉันมีการกระจายหลายโหมด?

ข้อมูล

10346 13698 13894 19854 28066 26620 27066 16658  9221 13578 11483 10390 11126 13487 
15851 16116 24102 30892 25081 14067 10433 15591  8639 10345 10639 15796 14507 21289 
25444 26149 23612 19671 12447 13535 10667 11255  8442 11546 15958 21058 28088 23827 
30707 19653 12791 13463 11465 12326 12277 12769 18341 19140 24590 28277 22694 15489 
11070 11002 11579  9834  9364 15128 15147 18499 25134 32116 24475 21952 10272 15404 
13079 10633 10761 13714 16073 23335 29822 26800 31489 19780 12238 15318  9646 11786 
10906 13056 17599 22524 25057 28809 27880 19912 12319 18240 11934 10290 11304 16092 
15911 24671 31081 27716 25388 22665 10603 14409 10736  9651 12533 17546 16863 23598 
25867 31774 24216 20448 12548 15129 11687 11581

3
ใช้ถังขยะมากขึ้นในฮิสโตแกรมของคุณ ฉันขอแนะนำให้มากกว่าสองเท่า
Glen_b

1
มีการพูดถึงการทดสอบที่แตกต่างกันเก้าข้อในคำตอบนี้ซึ่งบางข้ออาจเกี่ยวข้องกับสถานการณ์ของคุณ
Glen_b

1
บทความนี้น่าจะเป็นประโยชน์กับคุณถ้าคุณยังไม่เคยเห็นมัน ( ติดตามเรื่องนี้ด้วย )
Eoin

คำตอบ:


15

@NickCox ได้นำเสนอกลยุทธ์ที่น่าสนใจ (+1) ฉันอาจจะคิดว่ามันจะสอบสวนเพิ่มเติมในธรรมชาติ แต่เนื่องจากความกังวลว่า @whuber ชี้ให้เห็น

ผมขอแนะนำกลยุทธ์อื่น: คุณสามารถใส่โมเดลผสมแบบเกาส์ จำกัด ได้ โปรดทราบว่าสิ่งนี้ทำให้มีข้อสันนิษฐานที่แข็งแกร่งมากว่าข้อมูลของคุณถูกดึงมาจากเกณฑ์ปกติที่แท้จริงอย่างน้อยหนึ่งข้อ ในฐานะที่เป็นทั้ง @whuber และ @NickCox ชี้ให้เห็นในความคิดเห็นโดยไม่มีการตีความที่สำคัญของข้อมูลเหล่านี้ - ได้รับการสนับสนุนโดยทฤษฎีที่จัดตั้งขึ้นอย่างดี - เพื่อรองรับสมมติฐานนี้กลยุทธ์นี้ควรได้รับการพิจารณาด้วย

อันดับแรกให้ทำตามคำแนะนำของ @ Glen_b แล้วดูข้อมูลของคุณโดยใช้ถังขยะสองเท่า:

ป้อนคำอธิบายรูปภาพที่นี่

เรายังเห็นสองโหมด; หากมีสิ่งใดพวกเขามาที่นี่ให้ชัดเจนยิ่งขึ้น (โปรดทราบว่าบรรทัดความหนาแน่นเคอร์เนลควรเหมือนกัน แต่ปรากฏว่ากระจายออกไปมากขึ้นเนื่องจากจำนวนของถังขยะที่มากขึ้น)

ตอนนี้ให้พอดีกับรูปแบบการผสม จำกัด แบบเกาส์ ในRคุณสามารถใช้Mclustแพ็คเกจเพื่อทำสิ่งนี้:

library(mclust)
x.gmm = Mclust(x)
summary(x.gmm)
# ----------------------------------------------------
# Gaussian finite mixture model fitted by EM algorithm 
# ----------------------------------------------------
#   
# Mclust V (univariate, unequal variance) model with 2 components:
#   
#   log.likelihood   n df       BIC       ICL
#        -1200.874 120  5 -2425.686 -2442.719
# 
# Clustering table:
#  1  2 
# 68 52 

สององค์ประกอบปกติปรับ BIC ให้เหมาะสม สำหรับการเปรียบเทียบเราสามารถบังคับส่วนประกอบหนึ่งให้พอดีและทำการทดสอบอัตราส่วนความน่าจะเป็น:

x.gmm.1 = Mclust(x, G=1)
logLik(x.gmm.1)
# 'log Lik.' -1226.241 (df=2)
logLik(x.gmm)-logLik(x.gmm.1)
# 'log Lik.' 25.36657 (df=5)
1-pchisq(25.36657, df=3)  # [1] 1.294187e-05

นี่เป็นการชี้ให้เห็นว่ามันไม่น่าเป็นไปได้อย่างยิ่งที่คุณจะพบข้อมูลที่ไกลจาก unimodal เช่นเดียวกับคุณถ้ามันมาจากการแจกแจงแบบปกติที่แท้จริงเพียงครั้งเดียว

บางคนรู้สึกไม่สบายใจเมื่อใช้การทดสอบแบบพาราเมตริกที่นี่ (แม้ว่าจะมีข้อสันนิษฐานก็ตามผมก็ไม่รู้ว่ามีปัญหาอะไร) เทคนิคที่ใช้กันอย่างแพร่หลายอย่างหนึ่งคือการใช้วิธี Parametric Bootstrap Cross-fitting (ฉันอธิบายอัลกอริทึมที่นี่ ) เราสามารถลองใช้กับข้อมูลเหล่านี้:

x.gmm$parameters
# $mean
# 12346.98 23322.06 
# $variance$sigmasq
# [1]  4514863 24582180
x.gmm.1$parameters
# $mean
# [1] 17520.91
# $variance$sigmasq
# [1] 43989870

set.seed(7809)
B = 10000;    x2.d = vector(length=B);    x1.d = vector(length=B)
for(i in 1:B){
  x2      = c(rnorm(68, mean=12346.98, sd=sqrt( 4514863)), 
              rnorm(52, mean=23322.06, sd=sqrt(24582180)) )
  x1      = rnorm( 120, mean=17520.91, sd=sqrt(43989870))
  x2.d[i] = Mclust(x2, G=2)$loglik - Mclust(x2, G=1)$loglik
  x1.d[i] = Mclust(x1, G=2)$loglik - Mclust(x1, G=1)$loglik
}
x2.d = sort(x2.d);  x1.d = sort(x1.d)
summary(x1.d)
#     Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
# -0.29070 -0.02124  0.41460  0.88760  1.36700 14.01000 
summary(x2.d)
#   Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
#  9.006  23.770  27.500  27.760  31.350  53.500 

ป้อนคำอธิบายรูปภาพที่นี่

สถิติสรุปและพล็อตความหนาแน่นเคอร์เนลสำหรับการกระจายการสุ่มตัวอย่างแสดงคุณลักษณะที่น่าสนใจหลายประการ ความน่าจะเป็นของการบันทึกสำหรับแบบจำลององค์ประกอบเดียวนั้นแทบจะไม่มากไปกว่าความเหมาะสมของส่วนประกอบทั้งสองแม้ว่ากระบวนการสร้างข้อมูลที่แท้จริงจะมีเพียงส่วนประกอบเดียวเท่านั้นและเมื่อยิ่งสูงขึ้นจำนวนนั้นก็เล็กน้อย แนวคิดในการเปรียบเทียบแบบจำลองที่แตกต่างกันในความสามารถในการปรับข้อมูลให้เหมาะสมเป็นหนึ่งในแรงจูงใจเบื้องหลัง PBCM การแจกแจงการสุ่มตัวอย่างทั้งสองแทบจะไม่ทับซ้อนกันเลย เพียง. 35% ของx2.dน้อยกว่าค่าสูงสุดx1.dราคา. หากคุณเลือกรูปแบบส่วนประกอบสองแบบหากความแตกต่างในโอกาสในการบันทึกคือ> 9.7 คุณจะเลือกรูปแบบองค์ประกอบหนึ่งรูปแบบไม่ถูกต้อง. 01% และรูปแบบองค์ประกอบสองรูปแบบ. 02% ของเวลา สิ่งเหล่านี้จำแนกได้อย่างมาก หากในอีกทางหนึ่งคุณเลือกที่จะใช้แบบจำลององค์ประกอบหนึ่งเป็นสมมติฐานว่างผลลัพธ์ที่คุณสังเกตเห็นนั้นมีขนาดเล็กพอที่จะไม่ปรากฏในการแจกแจงตัวอย่างแบบทดลองใน 10,000 รอบ เราสามารถใช้กฎ 3 (ดูที่นี่ ) เพื่อวางขอบเขตบนบน p-value กล่าวคือเราประเมินค่า p ของคุณน้อยกว่า. 0003 นั่นคือสิ่งนี้มีความสำคัญอย่างมาก

พี<0.000001พี<001) และส่วนประกอบพื้นฐานควรมีอยู่ไม่รับประกันว่าจะเป็นปกติอย่างสมบูรณ์เช่นกัน หากคุณพบว่ามันสมเหตุสมผลที่ข้อมูลของคุณอาจมาจากการแจกแจงแบบเบ้เชิงบวกมากกว่าปกติระดับ bimodality ในระดับนี้อาจอยู่ในช่วงของการเปลี่ยนแปลงตามปกติซึ่งเป็นสิ่งที่ฉันสงสัยว่าการทดสอบการจุ่มนั้นกำลังพูดอยู่


1
ปัญหาของวิธีนี้คือทางเลือกที่คุณเปรียบเทียบส่วนผสมแบบเกาส์นั้นไม่สมเหตุสมผล สิ่งที่สมเหตุสมผลมากขึ้นก็คือการกระจายตัวเป็นแบบเบ้ขวาเช่น Gamma มันเกือบจะเป็นเพราะส่วนผสมจะพอดีกับชุดข้อมูลใด ๆ ที่เบ้ "อย่างมีนัยสำคัญ" ดีกว่าแบบเกาส์เดียวจะพอดี
whuber

คุณพูดถูก @whuber ฉันพยายามที่จะทำให้จุดนั้นอย่างชัดเจน ฉันไม่แน่ใจว่าจะทำ Gamma FMM ได้อย่างไร แต่จะดีกว่านี้
gung - Reinstate Monica

1
เนื่องจากนี่คือการสำรวจเราคิดว่าจะพยายามแปลงการกระจายแบบดั้งเดิมให้เป็นแบบสมมาตร (อาจจะมีการแปลง Box-Cox ออฟเซ็ตซึ่งประเมินจากข้อมูลจำนวนไม่มาก) และลองแนวทางของคุณอีกครั้ง แน่นอนคุณจะไม่พูดถึง "ความสำคัญ" ต่อ seแต่การวิเคราะห์ความน่าจะเป็นยังสามารถเปิดเผยได้
whuber

@ เมื่อไรฉันก็ทำอย่างนั้น แต่ฉันพูดถึงมันเมื่อผ่านไปเท่านั้น (การแปลงบ็อกซ์ - ค็อกซ์ที่เหมาะสมที่สุดคือรากที่สองผกผัน) คุณจะได้รับผลลัพธ์เหมือนกัน แต่ค่า p มีค่า (ยังสูง แต่มีความสำคัญน้อยกว่า)
gung - Reinstate Monica

3
ฉันชอบแนวคิดที่ว่าคุณควรจะทำตัวเป็นแบบอย่างที่คุณคิดว่าเป็นกระบวนการสร้าง ปัญหาของฉันคือว่าแม้การผสมผสานแบบเกาส์ทำงานได้ดีฉันก็รู้สึกว่าควรมีการตีความที่สำคัญ หาก OP บอกกับเรามากขึ้นถึงสิ่งที่ข้อมูลคาดเดาได้ดีกว่าอาจเป็นไปได้
Nick Cox

10

ติดตามความคิดใน @ คำตอบของนิคและแสดงความคิดเห็นที่คุณสามารถดูวิธีการที่หลากหลายตอบสนองความต้องการแบนด์วิดธ์ที่จะเป็นไปเพียงแผ่ออกโหมดรอง:

ป้อนคำอธิบายรูปภาพที่นี่

ใช้การประมาณความหนาแน่นของเคอร์เนลนี้เป็นค่าว่างใกล้เคียง - การกระจายที่ใกล้เคียงที่สุดกับข้อมูล แต่ยังคงสอดคล้องกับสมมติฐานว่างว่ามันเป็นตัวอย่างจากประชากรที่ไม่มีรูปแบบ - และจำลองจากมัน ในตัวอย่างที่จำลองโหมดรองไม่ได้ดูบ่อยนักและคุณไม่จำเป็นต้องขยายแบนด์วิดท์ให้มากจนแบน

<code> ป้อนคำอธิบายรูปภาพที่นี่ </code>

การทำให้เป็นระเบียบวิธีนี้นำไปสู่การทดสอบที่ให้ไว้ใน Silverman (1981), "การใช้ความหนาแน่นของเคอร์เนลในการตรวจสอบแบบแผน ", JRSS B , 43 , 1 silvermantestแพคเกจของ Schwaiger & Holzmann ใช้การทดสอบนี้และขั้นตอนการสอบเทียบ 2001), "ในการสอบเทียบของการทดสอบของ Silverman สำหรับ multimodality", Statistica Sinica , 11 , p 515, ซึ่งปรับสำหรับการอนุรักษ์เชิงเส้นกำกับ ดำเนินการทดสอบข้อมูลของคุณด้วยสมมติฐานว่างผลลัพธ์ unimodality ในค่า p-0.08 โดยไม่ต้องสอบเทียบและ 0.02 กับการสอบเทียบ ฉันไม่คุ้นเคยกับการทดสอบการจุ่มเพื่อเดาว่าทำไมมันถึงแตกต่างกัน

รหัส R:

  # kernel density estimate for x using Sheather-Jones method to estimate b/w:
density(x, kernel="gaussian", bw="SJ") -> dens.SJ
  # tweak b/w until mode just disappears:
density(x, kernel="gaussian", bw=3160) -> prox.null
  # fill matrix with simulated samples from the proximal null:
x.sim <- matrix(NA, nrow=length(x), ncol=10)
for (i in 1:10){
  x.sim[ ,i] <- rnorm(length(x), sample(x, size=length(x), replace=T), prox.null$bw)
}
  # perform Silverman test without Hall-York calibration:
require(silvermantest)
silverman.test(x, k=1, M=10000, adjust=F)
  # perform Silverman test with Hall-York calibration:
silverman.test(x, k=1, M=10000, adjust=T)

+1 ! ที่น่าสนใจ เคอร์เนลใดถูกใช้งานที่นี่ ในขณะที่ฉันจำได้เล็กน้อยมีเหตุผลที่ลึกซึ้งว่าทำไมเมล็ดเกาส์เซียนควรใช้สำหรับรูปแบบที่เป็นทางการของวิธีนี้
Nick Cox

@Nick: เคอร์เนล Gaussian แต่ฉันจำไม่ได้ว่ามีเหตุผลที่น่าสนใจ ตัวอย่างจำลองแต่ละตัวอย่างนั้นได้รับการลดหย่อนและมีการแก้ไขอคติแบบอนุรักษ์นิยมที่มีการทดสอบครั้งแรก - มีคนที่เรียกว่า Storey ฉันคิดว่า
Scortchi - Reinstate Monica

@NickCox: ขออภัยไม่มีชั้นเลย
Scortchi - Reinstate Monica

@Scortchi ฉัน tweaked ข้อความและรหัสของคุณเล็กน้อย ฉันหวังว่าคุณจะไม่รังเกียจ +1 นอกจากนี้คุณยังใช้ตัวดำเนินการกำหนดลูกศรขวาที่หวั่น?! โอ้มนุษยชาติ ...
gung - Reinstate Monica

2
มันไม่ได้ดีขึ้นหรือแย่ลง แต่การประชุมในการเขียนโปรแกรมคือการระบุตัวแปรของคุณทางด้านซ้ายและมีสิ่งที่ได้รับมอบหมายไปทางขวา ผู้คนจำนวนมากกำลัง freaked ออกโดย->; ฉันแค่สับสน
gung - Reinstate Monica

7

สิ่งที่ต้องกังวล ได้แก่ :

  1. ขนาดของชุดข้อมูล มันไม่เล็กไม่ใหญ่

  2. การพึ่งพาของสิ่งที่คุณเห็นในต้นกำเนิดฮิสโตแกรมและความกว้างของถังขยะ ด้วยทางเลือกเพียงทางเดียวคุณ (และเรา) จึงไม่มีความรู้สึกไว

  3. การพึ่งพาสิ่งที่คุณเห็นในประเภทของเคอร์เนลและความกว้างและตัวเลือกอื่น ๆ ที่ทำเพื่อคุณในการประมาณความหนาแน่น ด้วยทางเลือกเพียงทางเดียวคุณ (และเรา) จึงไม่มีความรู้สึกไว

ที่อื่นฉันได้แนะนำอย่างไม่แน่นอนว่าความน่าเชื่อถือของโหมดได้รับการสนับสนุน (แต่ไม่ได้รับการยอมรับ) โดยการตีความที่สำคัญและโดยความสามารถในการมองเห็นรูปแบบเดียวกันในชุดข้อมูลอื่นที่มีขนาดเท่ากัน (ใหญ่กว่าก็ดีกว่าเช่นกัน .... )

เราไม่สามารถแสดงความคิดเห็นใด ๆ ของที่นี่ ด้ามจับขนาดเล็กหนึ่งตัวที่ทำซ้ำได้คือการเปรียบเทียบสิ่งที่คุณได้รับด้วยตัวอย่าง bootstrap ที่มีขนาดเท่ากัน นี่คือผลของการทดลองโดยใช้โทเค็น Stata มีแต่สิ่งที่คุณเห็นจะถูก จำกัด โดยพลการเป็นค่าเริ่มต้น Stata ซึ่งตัวเองได้รับการบันทึกเป็นดึงออกมาจากอากาศ ฉันได้รับการประเมินความหนาแน่นสำหรับข้อมูลต้นฉบับและตัวอย่างบูต 24 อันจากเดิม

ข้อบ่งชี้ (ไม่มากไม่น้อย) เป็นสิ่งที่ฉันคิดว่านักวิเคราะห์ที่มีประสบการณ์จะคาดเดาจากกราฟของคุณ โหมดซ้ายมือสามารถทำซ้ำได้สูงและมือขวามีความเปราะบางอย่างชัดเจนยิ่งขึ้น

โปรดทราบว่ามีสิ่งที่หลีกเลี่ยงไม่ได้เกี่ยวกับเรื่องนี้: เนื่องจากมีข้อมูลน้อยลงที่อยู่ใกล้กับโหมดถนัดขวามันจะไม่ปรากฏขึ้นอีกครั้งในตัวอย่าง bootstrap แต่นี่ก็เป็นประเด็นสำคัญเช่นกัน

ป้อนคำอธิบายรูปภาพที่นี่

โปรดทราบว่าจุดที่ 3 ด้านบนยังคงไม่ถูกแตะต้อง แต่ผลลัพธ์อยู่ที่ไหนสักแห่งระหว่าง unimodal และ bimodal

สำหรับผู้ที่สนใจนี่คือรหัส:

clear 
set scheme s1color 
set seed 2803 

mat data = (10346, 13698, 13894, 19854, 28066, 26620, 27066, 16658, 9221, 13578, 11483, 10390, 11126, 13487, 15851, 16116, 24102, 30892, 25081, 14067, 10433, 15591, 8639, 10345, 10639, 15796, 14507, 21289, 25444, 26149, 23612, 19671, 12447, 13535, 10667, 11255, 8442, 11546, 15958, 21058, 28088, 23827, 30707, 19653, 12791, 13463, 11465, 12326, 12277, 12769, 18341, 19140, 24590, 28277, 22694, 15489, 11070, 11002, 11579, 9834, 9364, 15128, 15147, 18499, 25134, 32116, 24475, 21952, 10272, 15404, 13079, 10633, 10761, 13714, 16073, 23335, 29822, 26800, 31489, 19780, 12238, 15318, 9646, 11786, 10906, 13056, 17599, 22524, 25057, 28809, 27880, 19912, 12319, 18240, 11934, 10290, 11304, 16092, 15911, 24671, 31081, 27716, 25388, 22665, 10603, 14409, 10736, 9651, 12533, 17546, 16863, 23598, 25867, 31774, 24216, 20448, 12548, 15129, 11687, 11581)
set obs `=colsof(data)' 
gen data = data[1,_n] 

gen index = . 

quietly forval j = 1/24 { 
    replace index = ceil(120 * runiform()) 
    gen data`j' = data[index]
    kdensity data`j' , nograph at(data) gen(xx`j' d`j') 
} 

kdensity data, nograph at(data) gen(xx d) 

local xstuff xtitle(data/1000) xla(10000 "10" 20000 "20" 30000 "30") sort 
local ystuff ysc(r(0 .0001)) yla(none) `ystuff'   

local i = 1 
local colour "orange" 
foreach v of var d d? d?? { 
    line `v' data, lc(`colour') `xstuff'  `ystuff' name(g`i', replace) 
    local colour "gs8" 
    local G `G' g`i' 
    local ++i 
} 

graph combine `G' 

+1 ฉันชอบวิธี bootstrap ของคุณ: อาร์เรย์ของการแปลงช่วยให้ทุกคนเข้าใจข้อมูลได้ดีขึ้น ฉันสงสัยว่าแผนการเหล่านั้นอาจมีความไวต่อวิธีที่ Stata ประมาณแบนด์วิดท์หรือไม่ ฉันสงสัยว่ามันอาจส่งผลให้มีการทดสอบภายใต้การใช้พลังงานต่ำกว่าเนื่องจากการประมาณนั้นอาจขึ้นอยู่กับข้อสมมติแบบเดียวซึ่งนำไปสู่แบนด์วิดท์ที่ค่อนข้างกว้าง แม้แต่การประมาณแบนด์วิดท์ที่แคบลงเล็กน้อยก็อาจทำให้โหมดที่สองโดดเด่นกว่าในตัวอย่างบูตทั้งหมด
whuber

2
@whuber ขอบคุณ! ตามปกติคุณเน้นจุดอ่อนที่เราต้องกังวลและฉันเห็นด้วยอย่างไม่ลดละ เมื่อแบนด์วิดท์ของเคอร์เนลเพิ่มขึ้นลักษณะของ unimodality มีแนวโน้มที่จะหลีกเลี่ยงไม่ได้ ในทางกลับกันแบนด์วิดท์ขนาดเล็กมักจะระบุโหมดปลอมซึ่งไม่สามารถทำซ้ำได้และ / หรือไม่สำคัญ การแลกเปลี่ยนอย่างแท้จริงนั้นละเอียดอ่อน ฉันคิดว่าข้อดีหลักของวิธีนี้คือสำนวนของ "นั่นเป็นแบบจำลองถ้าเรากระตุก?" ฉันมักกังวลเกี่ยวกับความเต็มใจของผู้ใช้ซอฟต์แวร์ในการคัดลอกผลลัพธ์เริ่มต้นโดยไม่มีการสะท้อนกลับ
Nick Cox

2
มีวิธีการที่เป็นระบบในการแก้ไขปัญหานี้โดยพิจารณาจากการปรับเปลี่ยนแบนด์วิดท์อย่างต่อเนื่องและติดตามลักษณะที่ปรากฏและการหายไปของโหมดเมื่อแบนด์วิดท์แตกต่างกันไป โดยพื้นฐานแล้วโหมดที่เชื่อถือได้จะยังคงอยู่และโหมดที่น่าเชื่อถือน้อยกว่าจะไม่เกิดขึ้น มันเป็นวิธีการที่น่ารัก แต่บางครั้งก็จะสร้างตัวสร้างอุโมงค์ขึ้นมาเมื่อจอบจะทำ ตัวอย่างเช่นหากคุณเลือกตัวเลือกฮิสโทแกรมและโหมดที่สองหายไป (หรือย้าย) พร้อมเกินไปไม่เชื่อ
Nick Cox

2

การระบุโหมด Nonparametric LP

การระบุโหมด Nonparametric LP (ชื่ออัลกอริทึมLPModeการอ้างอิงของกระดาษได้รับด้านล่าง)

โหมดMaxEnt [สามเหลี่ยมสีแดงในพล็อต]: 12783.36 และ 24654.28

โหมดL2 [สามเหลี่ยมสีเขียวในพล็อต]: 13054.70 และ 24111.61

น่าสนใจที่จะสังเกตรูปร่างของโมดอลโดยเฉพาะรูปที่สองซึ่งแสดงความเบ้มาก

Mukhopadhyay, S. (2016) การระบุโหมดขนาดใหญ่และวิทยาศาสตร์ที่ขับเคลื่อนด้วยข้อมูล https://arxiv.org/abs/1509.06428


1
คุณสามารถอธิบายและให้บริบทเพื่อแนะนำและอธิบายวิธีการเหล่านี้ได้หรือไม่? เป็นเรื่องดีที่มีลิงก์ไปยังกระดาษ แต่เราต้องการคำตอบที่นี่เพื่อความเป็นตัวเองโดยเฉพาะถ้าลิงก์นั้นเสีย
gung - Reinstate Monica

บริบทเป็นคำถามเดิม: มีความหลากหลายหรือไม่? ถ้าเป็นเช่นนั้น และความเกี่ยวข้องของวิธีการใหม่มาจากข้อเท็จจริงที่ว่าการล่าสัตว์ชนในลักษณะที่ไม่ใช่พารามิเตอร์เป็นปัญหาการสร้างแบบจำลองอย่างหนัก
Deep Mukherjee

@gung ขอให้คุณขยายคำตอบของคุณ ตัวอย่างเช่นผลลัพธ์มาจากวิธีการที่อธิบายในเอกสารที่ไม่มีรุ่นสาธารณะ
Nick Cox

2
ไม่ฉันหมายถึง "การระบุโหมด Nonparametric LP" คืออะไร "MaxEnt" คืออะไร ฯลฯ ในสองสามประโยคสิ่งนี้ทำงานอย่างไร ทำไม / เมื่อใดจึงควรเลือกใช้วิธีอื่น? ฯลฯ ฉันรู้ว่าคุณเชื่อมโยงไปยังกระดาษที่อธิบายพวกเขา แต่มันจะดีถ้ามีประโยคสองสามประโยคที่จะแนะนำพวกเขาที่นี่โดยเฉพาะอย่างยิ่งถ้าลิงค์นั้นตายไป แต่ถึงแม้ว่าจะไม่ทำให้ผู้อ่านในอนาคตรู้สึกว่าพวกเขา ต้องการติดตามวิธีนี้
gung - Reinstate Monica

2
@DeepMukherjee แน่นอนว่าคุณไม่จำเป็นต้องเขียนบทความทั้งหมดในโพสต์ของคุณอีก เพียงเพิ่มสองสามประโยคที่บอกว่ามันทำงานอย่างไร
gung - Reinstate Monica
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.