คำถามติดแท็ก kernel-smoothing

เทคนิคการปรับให้เรียบของเคอร์เนลเช่นการประมาณความหนาแน่นของเคอร์เนล (KDE) และการถดถอยเคอร์เนลของ Nadaraya-Watson ฟังก์ชันการประมาณโดยการแก้ไขท้องถิ่นจากจุดข้อมูล เพื่อไม่ให้สับสนกับ [เคอร์เนลเคล็ดลับ] สำหรับเมล็ดที่ใช้เช่นใน SVM

1
ความแปรปรวนในระยะยาวคืออะไร?
ความแปรปรวนในระยะยาวในขอบเขตของการวิเคราะห์อนุกรมเวลาได้กำหนดไว้อย่างไร ฉันเข้าใจว่ามันถูกใช้ในกรณีที่มีโครงสร้างความสัมพันธ์ในข้อมูล ดังนั้นกระบวนการสโตแคสติกของเราจะไม่เป็นตระกูลX1,X2…X1,X2…X_1, X_2 \dots iid ตัวแปรสุ่ม แต่เป็นการกระจายตัวเท่านั้น ฉันขออ้างอิงมาตรฐานเพื่อแนะนำแนวคิดและปัญหาที่เกี่ยวข้องกับการประมาณค่าได้ไหม

1
อะไรคือชื่อของวิธีการประมาณความหนาแน่นที่คู่ที่เป็นไปได้ทั้งหมดถูกใช้เพื่อสร้างการกระจายแบบผสมปกติ?
ฉันแค่คิดถึงวิธีที่เป็นระเบียบเรียบร้อย (ไม่จำเป็นต้องดี) ในการสร้างความหนาแน่นมิติหนึ่งและคำถามของฉันคือ: วิธีการประมาณความหนาแน่นนี้มีชื่อหรือไม่? ถ้าไม่ใช่มันเป็นกรณีพิเศษของวิธีอื่นในวรรณคดีหรือไม่? นี่คือวิธีการที่เรามีเวกเตอร์ซึ่งเราสันนิษฐานว่ามาจากการแจกแจงที่ไม่รู้จักที่เราต้องการประเมิน วิธีการทำเช่นนี้คือการใช้ค่าที่เป็นไปได้ทั้งหมดในXและสำหรับแต่ละคู่[ x i , x j ] i ≠ jเหมาะสมกับการแจกแจงแบบปกติโดยใช้โอกาสสูงสุด การประมาณความหนาแน่นของผลลัพธ์คือการกระจายตัวของส่วนผสมที่ประกอบด้วย Normals ที่ได้ทั้งหมดซึ่งแต่ละ Normal จะได้รับน้ำหนักเท่ากันX= [ x1, x2, . . . , xn]X=[x1,x2,...,xn]X = [x_1,x_2,...,x_n]XXX[ xผม, xJ]ฉัน≠ j[xi,xj]i≠j[x_i,x_j]_{i \neq j} รูปด้านล่างแสดงให้เห็นถึงการใช้วิธีนี้ในเวกเตอร์ ] ที่นี่วงกลมคือ datapoints, Normals สีคือการแจกแจงความน่าจะเป็นสูงสุดที่ประมาณโดยใช้แต่ละคู่ที่เป็นไปได้และเส้นสีดำหนาแสดงการประมาณความหนาแน่นที่เกิดขึ้น (นั่นคือการกระจายตัวของผสม)[ - 1.3 , 0.15 , 0.73 , …

4
การประเมินความหนาแน่นของเคอร์เนลที่รวมความไม่แน่นอน
เมื่อแสดงข้อมูลมิติเดียวเป็นเรื่องปกติที่จะใช้เทคนิคการประมาณความหนาแน่นเคอร์เนลเพื่ออธิบายความกว้างของถังขยะที่เลือกอย่างไม่เหมาะสม เมื่อชุดข้อมูลหนึ่งมิติของฉันมีความไม่แน่นอนในการวัดมีวิธีมาตรฐานในการรวมข้อมูลนี้หรือไม่ ตัวอย่างเช่น (และให้อภัยฉันถ้าความเข้าใจของฉันไร้เดียงสา) KDE โน้มน้าวโปรไฟล์เกาส์เซียนด้วยฟังก์ชันเดลต้าของการสังเกต เคอร์เนล Gaussian นี้ใช้ร่วมกันระหว่างแต่ละตำแหน่ง แต่พารามิเตอร์Gaussianอาจมีการเปลี่ยนแปลงเพื่อให้ตรงกับความไม่แน่นอนของการวัด มีวิธีการมาตรฐานในการดำเนินการนี้หรือไม่? ฉันหวังว่าจะสะท้อนให้เห็นถึงคุณค่าที่ไม่แน่นอนกับเมล็ดที่กว้างσσ\sigma ฉันได้ใช้งานสิ่งนี้ใน Python แต่ฉันไม่รู้วิธีหรือฟังก์ชันมาตรฐานในการทำสิ่งนี้ มีปัญหาใด ๆ ในเทคนิคนี้หรือไม่? ฉันทราบว่ามันให้กราฟที่ดูแปลก ๆ ! ตัวอย่างเช่น ในกรณีนี้ค่าต่ำจะมีความไม่แน่นอนมากขึ้นดังนั้นจึงมีแนวโน้มที่จะให้เมล็ดแบนเรียบในขณะที่ KDE มีน้ำหนักเกินค่าต่ำ (และไม่แน่นอน)

1
อัตราส่วนของความน่าจะเป็นเทียบกับอัตราส่วนของ PDF
ฉันใช้ Bayes เพื่อแก้ปัญหาการจัดกลุ่ม หลังจากทำการคำนวณบางอย่างฉันก็จำเป็นต้องได้รับอัตราส่วนของความน่าจะเป็นสองอย่าง: P(A)/P(B)P(A)/P(B)P(A)/P(B) เพื่อให้สามารถที่จะได้รับP(H|D)P(H|D)P(H|D) ) ความน่าจะเป็นเหล่านี้ได้มาจากการรวมกันของ KD หลายตัวแปร 2D สองแบบตามที่อธิบายไว้ในคำตอบนี้ : P(A)=∬x,y:f^(x,y)&lt;f^(ra,sa)f^(x,y)dxdyP(A)=∬x,y:f^(x,y)&lt;f^(ra,sa)f^(x,y)dxdyP(A) = \iint_{x, y : \hat{f}(x, y) < \hat{f}(r_a, s_a)} \hat{f}(x,y)\,dx\,dy P(B)=∬x,y:g^(x,y)&lt;g^(rb,sb)g^(x,y)dxdyP(B)=∬x,y:g^(x,y)&lt;g^(rb,sb)g^(x,y)dxdyP(B) = \iint_{x, y : \hat{g}(x, y) < \hat{g}(r_b, s_b)} \hat{g}(x,y)\,dx\,dy โดยที่และคือ KDEs และการรวมเข้าด้วยกันนั้นทำสำหรับทุกจุดใต้ thresholdsและs_b) ทั้งสอง KDEs ใช้เคอร์เนล Gaussian ภาพตัวแทนของ KDE คล้ายกับคนที่ฉันกำลังทำงานกับสามารถมองเห็นได้ที่นี่: การบูรณาการประมาณค่าความหนาแน่นของเคอร์เนลในแบบ 2Df^(x,y)f^(x,y)\hat{f}(x, y)g^(x,y)g^(x,y)\hat{g}(x, y)f^(ra,sa)f^(ra,sa)\hat{f}(r_a, …

2
การรวมการประมาณความหนาแน่นของเคอร์เนลในแบบ 2D
ฉันมาจากคำถามนี้ในกรณีที่ใครต้องการติดตาม โดยทั่วไปฉันมีชุดข้อมูลΩΩ\Omegaประกอบด้วยวัตถุNNNซึ่งแต่ละวัตถุมีจำนวนค่าที่วัดได้ที่แนบมากับมัน (สองในกรณีนี้): Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]\Omega = o_1[x_1, y_1], o_2[x_2, y_2], ..., o_N[x_N, y_N] ฉันต้องมีวิธีการตรวจสอบน่าจะเป็นของที่ใหม่วัตถุเป็นของΩดังนั้นผมจึงได้รับคำแนะนำในคำถามว่าจะได้รับความหนาแน่นของความน่าจะเป็นฉผ่านประมาณการความหนาแน่นเคอร์เนลซึ่งผมเชื่อว่าผมมีอยู่แล้ว .p[xp,yp]p[xp,yp]p[x_p, y_p]ΩΩ\Omegaf^f^\hat{f} เนื่องจากเป้าหมายของฉันคือการได้รับความน่าจะเป็นของวัตถุใหม่นี้ ( ) ของที่อยู่ในนี้ 2 มิติชุดข้อมูลΩ , ฉันบอกว่าจะบูรณาการรูปแบบไฟล์ PDF ฉมากกว่า " ค่าของการสนับสนุนที่มีความหนาแน่น น้อยกว่าที่คุณสังเกตเห็น " "การตั้งข้อสังเกต" ความหนาแน่นฉประเมินในวัตถุใหม่P คือ: F ( x P , Y P ) ดังนั้นฉันต้องแก้สมการ:p[xp,yp]p[xp,yp]p[x_p, y_p]ΩΩ\Omegaf^f^\hat{f}f^f^\hat{f}pppf^(xp,yp)f^(xp,yp)\hat{f}(x_p, y_p) ∬x,y:f^(x,y)&lt;f^(xp,yp)f^(x,y)dxdy∬x,y:f^(x,y)&lt;f^(xp,yp)f^(x,y)dxdy\iint_{x, y:\hat{f}(x, y) < \hat{f}(x_p, y_p)} \hat{f}(x,y)\,dx\,dy …

1
กำลังคำนวณช่วงความมั่นใจสำหรับโหมดหรือไม่
ฉันกำลังมองหาข้อมูลอ้างอิงเกี่ยวกับการคำนวณช่วงความมั่นใจสำหรับโหมด (โดยทั่วไป) Bootstrap อาจเป็นตัวเลือกอันดับแรกตามธรรมชาติ แต่ตามที่กล่าวถึงโดย Romano (1988) bootstrap มาตรฐานจะล้มเหลวสำหรับโหมดและมันไม่ได้ให้วิธีแก้ปัญหาง่ายๆ มีอะไรเปลี่ยนแปลงไปบ้างจากบทความนี้? วิธีที่ดีที่สุดในการคำนวณช่วงความมั่นใจสำหรับโหมดคืออะไร วิธีบูตสแตรปที่ดีที่สุดคืออะไร? คุณสามารถให้การอ้างอิงที่เกี่ยวข้องใด ๆ Romano, JP (1988) ทำการบูตโหมด พงศาวดารของสถาบันคณิตศาสตร์สถิติ 40 (3), 565-586

1
วิธีปรับให้พอดีกับ PDF โดยประมาณ (เช่น: การประเมินความหนาแน่น) โดยใช้ช่วงเวลา k (เชิงประจักษ์) ครั้งแรก
ฉันมีสถานการณ์ที่ฉันสามารถประมาณค่าช่วงเวลาแรกของชุดข้อมูลและต้องการใช้เพื่อสร้างการประมาณของฟังก์ชันความหนาแน่นkkk ฉันได้พบกับการกระจายของเพียร์สันแล้ว แต่ฉันรู้ว่ามันขึ้นอยู่กับช่วงเวลา 4 ช่วงแรกเท่านั้น ฉันยังเข้าใจว่าช่วงเวลาที่ จำกัด ใด ๆ นั้นไม่เพียงพอที่จะ "ตรึง" การแจกแจงเฉพาะเมื่อไม่ใช้สมมติฐานเพิ่มเติม อย่างไรก็ตามฉันยังต้องการการแจกแจงระดับทั่วไปเพิ่มเติม (นอกเหนือจากการแจกแจงแบบครอบครัวของเพียร์สัน) มองไปที่คำถามอื่น ๆ ที่ฉันไม่สามารถหาเช่นการกระจาย (ดู: ที่นี่ , ที่นี่ , ที่นี่ , ที่นี่ , ที่นี่และที่นี่ ) มีการกระจายทั่วไป ("ง่าย") ครอบครัวที่สามารถกำหนดสำหรับช่วงเวลาใด ๆ ? (อาจเป็นชุดของการแปลงที่สามารถทำการแจกแจงแบบปกติมาตรฐานและแปลงมันจนกว่ามันจะยืนยันกับทุกช่วงเวลา )kkkkkk (ฉันไม่สนใจมากถ้าเราถือว่าช่วงเวลาอื่นเป็น 0 หรือไม่)k + 1 … ∞k+1...∞k+1\ldots\infty ขอบคุณ PS: ฉันจะมีความสุขสำหรับตัวอย่างเพิ่มเติม ควรมีตัวอย่างรหัส R เป็นพิเศษ

1
วิธีที่เหมาะสมในการคำนวณความหนาแน่นของเคอร์เนลจากพิกัดทางภูมิศาสตร์คืออะไร?
ฉันต้องคำนวณการประมาณความหนาแน่นเคอร์เนล 2d (kde) จากรายการพิกัดละติจูดและลองจิจูด แต่ละติจูดหนึ่งองศานั้นไม่ได้อยู่ในระยะเดียวกันกับลองจิจูดหนึ่งองศาซึ่งหมายความว่าเมล็ดของแต่ละบุคคลจะเป็นรูปวงรีโดยเฉพาะยิ่งไปกว่านั้นจุดนั้นมาจากเส้นศูนย์สูตร ในกรณีของฉันคะแนนทั้งหมดอยู่ใกล้กันพอที่จะเปลี่ยนเป็นโลกเรียบไม่ควรทำให้เกิดปัญหามากมาย อย่างไรก็ตามฉันยังสงสัยว่าควรจัดการอย่างเหมาะสมอย่างไรในกรณีที่ไม่เป็นจริง

4
ฉันจะดึงค่าแบบสุ่มจากการประมาณความหนาแน่นของเคอร์เนลได้อย่างไร
ฉันมีข้อสังเกตบางอย่างและฉันต้องการจำลองการสุ่มตัวอย่างตามข้อสังเกตเหล่านี้ ที่นี่ฉันพิจารณารูปแบบที่ไม่ใช่พารามิเตอร์โดยเฉพาะฉันใช้เคอร์เนลที่ราบเรียบเพื่อประเมิน CDF จากการสังเกตที่ จำกัด จากนั้นฉันวาดค่าที่สุ่มจาก CDF ที่ได้รับต่อไปนี้เป็นรหัสของฉัน (ความคิดคือการสุ่มสะสม ความน่าจะเป็นโดยใช้การแจกแจงแบบสม่ำเสมอและหาค่าผกผันของ CDF เทียบกับค่าความน่าจะเป็น) x = [randn(100, 1); rand(100, 1)+4; rand(100, 1)+8]; [f, xi] = ksdensity(x, 'Function', 'cdf', 'NUmPoints', 300); cdf = [xi', f']; nbsamp = 100; rndval = zeros(nbsamp, 1); for i = 1:nbsamp p = rand; [~, idx] = sort(abs(cdf(:, …

2
การประเมินความหนาแน่นของเคอร์เนลในการแจกแจงแบบอสมมาตร
ให้เป็นการสังเกตจากการแจกแจงความน่าจะเป็นที่ไม่รู้จัก (แต่ไม่สมมาตรอย่างแน่นอน){ x1, … , xยังไม่มีข้อความ}{x1,...,xยังไม่มีข้อความ}\{x_1,\ldots,x_N\} ฉันต้องการค้นหาการกระจายความน่าจะเป็นโดยใช้วิธีของ KDE: อย่างไรก็ตามฉันพยายามใช้เคอร์เนล Gaussian แต่มันทำงานได้ไม่ดีเนื่องจากมันสมมาตร ดังนั้นฉันได้เห็นว่างานบางอย่างเกี่ยวกับเมล็ด Gamma และ Beta ได้รับการเผยแพร่แม้ว่าฉันจะไม่เข้าใจวิธีการใช้งานกับพวกเขาฉ^( x ) = 1ยังไม่มีข้อความชั่วโมงΣผม = 1ยังไม่มีข้อความK( x - xผมชั่วโมง)ฉ^(x)=1ยังไม่มีข้อความชั่วโมงΣผม=1ยังไม่มีข้อความK(x-xผมชั่วโมง) \hat{f}(x) = \frac{1}{Nh}\sum_{i=1}^{N} K\bigl(\frac{x-x_i}{h}\bigr) คำถามของฉันคือ: วิธีจัดการกับกรณีอสมมาตรนี้โดยสมมติว่าการสนับสนุนการแจกแจงพื้นฐานไม่อยู่ในช่วง ?[ 0 , 1 ][0,1][0,1]

4
การทำเอฟเฟกต์ของการเปลี่ยนแปลงความกว้างเคอร์เนลใน R
ฉันมีข้อมูลบางอย่างใน R เก็บไว้ในรายการ คิด d &lt;- c(1,2,3,4) แม้ว่านี่จะไม่ใช่ข้อมูลของฉัน ถ้าฉันแล้วป้อนคำสั่ง plot(density(d, kernel="gaussian", width=1)) จากนั้นฉันจะได้รับการประมาณความหนาแน่นของความน่าจะเป็นเคอร์เนลที่เคอร์เนลเป็นมาตรฐานปกติ ถ้าฉันแทนที่ 1 ด้วยตัวเลขอื่น ๆ แน่นอนว่าภาพเปลี่ยนไป สิ่งที่ฉันต้องการจะทำคือการสร้างวิดีโอหรือภาพเคลื่อนไหวที่แต่ละเฟรมเป็นพล็อต แต่แบนด์วิดท์ของเคอร์เนลแตกต่างกันไปในแต่ละเฟรมดังนั้นจึงแสดงผลของการเปลี่ยนแบนด์วิดท์ ฉันจะทำสิ่งนี้ได้อย่างไร (ฉันขอโทษถ้านี่ไม่ใช่สถานที่ที่เหมาะสมที่จะถามคำถามเกี่ยวกับอาร์)

2
แบนด์วิดท์เคอร์เนลในการประมาณความหนาแน่นของเคอร์เนล
ฉันกำลังทำการประมาณค่าความหนาแน่นเคอร์เนลโดยมีการตั้งค่าคะแนนถ่วงน้ำหนัก (เช่น. แต่ละตัวอย่างมีน้ำหนักที่ไม่จำเป็นต้องใช้) ในมิติ N นอกจากนี้ตัวอย่างเหล่านี้อยู่ในพื้นที่เมตริก (เช่น. เราสามารถกำหนดระยะห่างระหว่างพวกเขา) แต่ไม่มีอะไรอื่น ตัวอย่างเช่นเราไม่สามารถหาค่าเฉลี่ยของคะแนนตัวอย่างหรือค่าเบี่ยงเบนมาตรฐานหรือปรับขนาดตัวแปรหนึ่งเมื่อเทียบกับตัวแปรอื่น เคอร์เนลได้รับผลกระทบจากระยะทางนี้และน้ำหนักของตัวอย่างแต่ละตัว: ฉ( x ) = 1∑ w e i gเอชทีเอสผม* Σ W อีฉันกรัมเอชทีผมชั่วโมง∗ Ke r n e l ( dฉันs T n คอี( x , xผม)ชั่วโมง)ฉ(x)=1ΣWอีผมก.ชั่วโมงเสื้อsผม* * * *ΣWอีผมก.ชั่วโมงเสื้อผมชั่วโมง* * * *KอีRnอีล.(dผมsเสื้อanคอี(x,xผม)ชั่วโมง)f(x) = \frac{1.}{\sum weights_i} * \sum\frac{weight_i}{h} * Kernel(\frac{distance(x,x_i)}{h}) ในบริบทนี้ฉันกำลังพยายามที่จะหาการประเมินประสิทธิภาพสำหรับแบนด์วิดธ์เคอร์เนลอาจจะเป็นตำแหน่งที่แตกต่างกันและโดยเฉพาะอย่างยิ่งที่จะช่วยให้การฟื้นฟูที่ถูกต้องในการฝึกอบรมชุดxฉัน …

1
ทำไมฟูริเยร์แบบสุ่มถึงไม่ติดลบ?
คุณลักษณะฟูริเยร์แบบสุ่มให้การประมาณค่ากับฟังก์ชันเคอร์เนล พวกมันใช้สำหรับวิธีเคอร์เนลต่างๆเช่น SVM และกระบวนการ Gaussian วันนี้ฉันลองใช้การติดตั้ง TensorFlowและฉันได้รับค่าลบสำหรับคุณสมบัติครึ่งหนึ่งของฉัน ตามที่ฉันเข้าใจแล้วสิ่งนี้ไม่ควรเกิดขึ้น ดังนั้นฉันจึงกลับไปที่เอกสารต้นฉบับซึ่ง --- อย่างที่ฉันคาดไว้ --- กล่าวว่าคุณลักษณะควรมีชีวิตอยู่ใน [0,1] แต่คำอธิบาย (เน้นด้านล่าง) ไม่สมเหตุสมผลสำหรับฉัน: ฟังก์ชันโคไซน์สามารถสร้างค่าได้ทุกที่ใน [-1,1] และจุดส่วนใหญ่ที่แสดงมีค่าโคไซน์เชิงลบ ฉันอาจจะพลาดอะไรบางอย่างที่เห็นได้ชัด แต่จะขอบคุณถ้ามีคนชี้ให้เห็นว่ามันคืออะไร

3
วิธีที่ดีที่สุดในการประเมินวิธีการประมาณ PDF
ฉันต้องการทดสอบความคิดของฉันที่ฉันคิดว่าดีกว่าสิ่งที่ฉันได้เห็น ฉันอาจจะผิด แต่ฉันต้องการที่จะทดสอบความคิดของฉันและเอาชนะข้อสงสัยของฉันโดยการสังเกตเพิ่มเติมบางอย่าง สิ่งที่ฉันคิดที่จะทำคือ: วิเคราะห์กำหนดชุดของการแจกแจง บางส่วนเป็นแบบง่าย ๆ เช่น Gaussian, uniform, หรือ Tophat แต่สิ่งเหล่านี้ต้องยากและท้าทายเช่นการจำหน่ายซิมป์สัน ใช้งานซอฟต์แวร์ตามการแจกแจงเชิงวิเคราะห์และใช้เพื่อสร้างตัวอย่างบางส่วน เนื่องจากการแจกแจงนั้นถูกกำหนดไว้ในการวิเคราะห์ฉันจึงรู้นิยาม PDF ที่แท้จริงของพวกมันอยู่แล้ว มันเยี่ยมมาก จากนั้นฉันจะทดสอบวิธีการประมาณ PDF ต่อไปนี้กับตัวอย่างด้านบน: วิธีการประมาณค่า PDF ที่มีอยู่ (เช่น KDE ที่มีเมล็ดและแบนด์วิดท์ต่างๆ) ความคิดของฉันเองที่ฉันคิดว่าคุ้มค่าที่จะลอง จากนั้นฉันจะวัดข้อผิดพลาดของการประมาณกับ PDF จริง จากนั้นฉันจะรู้ว่าวิธีการประมาณ PDF แบบใดดีกว่า คำถามของฉันคือ: คำถามที่ 1:มีการปรับปรุงแผนของฉันข้างต้นหรือไม่ Q2:ฉันพบว่ามันยากสำหรับฉันที่จะวิเคราะห์ PDF จริงหลาย ๆ อย่าง มีรายการที่ครอบคลุมของ PDF จริงที่กำหนดไว้มากมายที่วิเคราะห์ด้วยความยากลำบากที่แตกต่างกัน (รวมถึงไฟล์ที่ยากมาก) ที่ฉันสามารถนำกลับมาใช้ใหม่ได้หรือไม่?

2
คำนวณ ROC curve สำหรับข้อมูล
ดังนั้นฉันมีการทดลอง 16 ครั้งที่ฉันพยายามพิสูจน์ตัวตนบุคคลจากลักษณะทางชีวภาพโดยใช้ Hamming Distance เกณฑ์ของฉันถูกตั้งไว้ที่ 3.5 ข้อมูลของฉันอยู่ด้านล่างและเฉพาะการทดลองใช้ 1 เท่านั้นคือ True Positive: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 จุดสับสนของฉันคือฉันไม่แน่ใจจริงๆเกี่ยวกับวิธีสร้าง ROC curve …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.