คำถามติดแท็ก expected-value

ค่าที่คาดหวังของตัวแปรสุ่มคือค่าเฉลี่ยถ่วงน้ำหนักของค่าที่เป็นไปได้ทั้งหมดที่ตัวแปรสุ่มสามารถทำได้โดยที่น้ำหนักเท่ากับความน่าจะเป็นที่รับค่านั้น

6
ค่าที่คาดหวังของเวลารอคอยสำหรับรถเมล์แรกของสองคันที่วิ่งทุก ๆ 10 และ 15 นาที
ฉันเจอคำถามสัมภาษณ์: มีรถไฟสีแดงที่ออกทุก 10 นาที มีรถไฟสีน้ำเงินมาทุก ๆ 15 นาที ทั้งคู่เริ่มจากเวลาสุ่มดังนั้นคุณไม่มีตารางเวลาใด ๆ หากคุณมาถึงสถานีโดยการสุ่มเวลาและขึ้นรถไฟขบวนใดที่มาก่อนเวลารอที่คาดหวังคืออะไร

4
ความคาดหวังของผลิตภัณฑ์ของตัวแปรสุ่มขึ้นอยู่กับเมื่อ
ให้และ ,... ความคาดหวังของเป็นn \ rightarrow \ inftyคืออะไร?X1∼U[0,1]X1∼U[0,1]X_1 \sim U[0,1]Xi∼U[Xi−1,1]Xi∼U[Xi−1,1]X_i \sim U[X_{i - 1}, 1]i=2,3,...i=2,3,...i = 2, 3,...X1X2⋯XnX1X2⋯XnX_1 X_2 \cdots X_nn→∞n→∞n \rightarrow \infty

6
เหตุใดสถิติจึงมีประโยชน์เมื่อมีหลายสิ่งที่สำคัญว่าเป็นสิ่งที่มีคนนัด
ฉันไม่รู้ว่ามันเป็นเพียงฉัน แต่ฉันเป็นคนที่ไม่เชื่อในสถิติโดยทั่วไป ฉันสามารถเข้าใจได้ในเกมลูกเต๋าเกมโป๊กเกอร์ ฯลฯ เล็กมากง่าย ๆ เกมที่เล่นซ้ำในตัวเองส่วนใหญ่นั้นใช้ได้ ตัวอย่างเช่นการเชื่อมโยงไปถึงเหรียญบนขอบของมันมีขนาดเล็กพอที่จะยอมรับความน่าจะเป็นที่หัวเชื่อมโยงไปถึงหรือก้อย ~ 50% การเล่นโป๊กเกอร์เกม $ 10 โดยมีเป้าหมายเพื่อให้ได้ชัยชนะ 95% นั้นเป็นเรื่องปกติ แต่จะเกิดอะไรขึ้นถ้าการออมทั้งชีวิต + มากกว่านั้นขึ้นอยู่กับว่าคุณจะชนะหรือไม่ จะรู้ได้อย่างไรว่าคุณชนะในเวลา 95% ในสถานการณ์นั้นจะช่วยฉันได้อย่างไร ค่าที่คาดหวังไม่ได้ช่วยอะไรมาก ตัวอย่างอื่น ๆ ได้แก่ การผ่าตัดที่คุกคามชีวิต นั่นช่วยให้รู้ได้อย่างไรว่าเป็นอัตราการรอดชีวิต 51% เทียบกับอัตราการรอดชีวิต 99% จากข้อมูลที่มีอยู่ ในทั้งสองกรณีฉันไม่คิดว่ามันจะสำคัญสำหรับฉันในสิ่งที่แพทย์บอกฉันและฉันจะไปหามัน หากข้อมูลจริงคือ 75% เขาอาจบอกฉัน (ยกเว้นจรรยาบรรณและกฎหมาย) ว่ามีโอกาสรอดชีวิต 99.99999% ดังนั้นฉันจะรู้สึกดีขึ้น กล่าวอีกนัยหนึ่งข้อมูลที่มีอยู่ไม่สำคัญยกเว้นเป็นแบบทวินาม ถึงอย่างนั้นมันก็ไม่สำคัญว่าจะมีอัตราการรอดชีวิต 99.99999% หรือไม่ถ้าฉันตายจากไป นอกจากนี้ความน่าจะเป็นของแผ่นดินไหว ไม่สำคัญว่าจะเกิดแผ่นดินไหวรุนแรงทุก ๆ x (โดยที่ x> …

3
จำนวนที่คาดว่าจะโยนจนกว่าจะถึงหัวครั้งแรกขึ้นมา
สมมติว่าเหรียญยุติธรรมถูกโยนซ้ำ ๆ จนกว่าจะได้รับหัวเป็นครั้งแรก จำนวนของการโยนที่คาดว่าจะต้องมีเท่าไหร่? จำนวนหางที่คาดหวังที่จะได้รับก่อนที่จะได้รับหัวแรกคืออะไร?

1
ความคาดหวังตามเงื่อนไขของ R-squared
พิจารณาโมเดลเชิงเส้นอย่างง่าย: yy=X′ββ+ϵyy=X′ββ+ϵ\pmb{y}=X'\pmb{\beta}+\epsilon ที่ϵi∼i.i.d.N(0,σ2)ϵi∼i.i.d.N(0,σ2)\epsilon_i\sim\mathrm{i.i.d.}\;\mathcal{N}(0,\sigma^2)และ X∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p} ,p≥2p≥2p\geq2และXXXมีคอลัมน์ของค่าคงที่ คำถามของฉันคือให้E(X′X)E(X′X)\mathrm{E}(X'X) , ββ\betaและσσ\sigmaมีสูตรสำหรับขอบเขตบนที่ไม่น่ารำคาญบนE(R2)E(R2)\mathrm{E}(R^2) *? (สมมติว่าแบบจำลองนั้นประมาณโดย OLS) * ฉันสันนิษฐานว่าเขียนสิ่งนี้เพื่อรับE(R2)E(R2)E(R^2)นั้นเป็นไปไม่ได้ EDIT1 การใช้โซลูชันที่ได้รับจากStéphane Laurent (ดูด้านล่าง) เราจะได้ขอบเขตที่ไม่สำคัญบนE(R2)E(R2)E(R^2)) การจำลองเชิงตัวเลข (ด้านล่าง) แสดงว่าขอบเขตนี้แน่นจริง ๆ แล้ว Stéphane Laurent ได้รับสิ่งต่อไปนี้: R2∼B(p−1,n−p,λ)R2∼B(p−1,n−p,λ)R^2\sim\mathrm{B}(p-1,n-p,\lambda) โดยที่B(p−1,n−p,λ)B(p−1,n−p,λ)\mathrm{B}(p-1,n-p,\lambda)คือการแจกแจงเบต้าที่ไม่ได้อยู่ตรงกลางพร้อมพารามิเตอร์ non-centrality λλ\lambdaด้วย λ=||X′β−E(X)′β1n||2σ2λ=||X′β−E(X)′β1n||2σ2\lambda=\frac{||X'\beta-\mathrm{E}(X)'\beta1_n||^2}{\sigma^2} ดังนั้น E(R2)=E(χ2p−1(λ)χ2p−1(λ)+χ2n−p)≥E(χ2p−1(λ))E(χ2p−1(λ))+E(χ2n−p)E(R2)=E(χp−12(λ)χp−12(λ)+χn−p2)≥E(χp−12(λ))E(χp−12(λ))+E(χn−p2)\mathrm{E}(R^2)=\mathrm{E}\left(\frac{\chi^2_{p-1}(\lambda)}{\chi^2_{p-1}(\lambda)+\chi^2_{n-p}}\right)\geq\frac{\mathrm{E}\left(\chi^2_{p-1}(\lambda)\right)}{\mathrm{E}\left(\chi^2_{p-1}(\lambda)\right)+\mathrm{E}\left(\chi^2_{n-p}\right)} โดยที่เป็น non-central χ 2 ที่มีพารามิเตอร์λและk degree of freedom ดังนั้นขอบเขตบนที่ไม่สำคัญสำหรับE ( R 2 )คือχ2k(λ)χk2(λ)\chi^2_{k}(\lambda)χ2χ2\chi^2λλ\lambdakkkE(R2)E(R2)\mathrm{E}(R^2) λ+p−1λ+n−1λ+p−1λ+n−1\frac{\lambda+p-1}{\lambda+n-1} มันแน่นมาก (แน่นกว่าที่ฉันคาดไว้มากที่สุดเท่าที่จะเป็นไปได้): …

4
ค่าที่คาดหวังของค่ามัธยฐานตัวอย่างให้ค่าเฉลี่ยตัวอย่าง
Let YYYแสดงค่ามัธยฐานและให้ˉ XX¯\bar{X}หมายถึงค่าเฉลี่ยของตัวอย่างที่สุ่มจากขนาดn = 2 k + 1n=2k+1n=2k+1จากการจัดจำหน่ายที่เป็นN ( μ , σ 2N(μ,σ2)N(\mu,\sigma^2) ) ฉันจะคำนวณE ( Y | ˉ X = ˉ x ) ได้E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x})อย่างไร สังหรณ์ใจเพราะสมมติฐานปกติก็จะทำให้ความรู้สึกที่จะอ้างว่าE ( Y | ˉ X = ˉ x ) = ˉ xE(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x}และแน่นอนว่าเป็นคำตอบที่ถูกต้อง สามารถที่จะแสดงอย่างจริงจังว่า? ความคิดเริ่มต้นของฉันคือการเข้าถึงปัญหานี้โดยใช้การแจกแจงแบบปกติตามเงื่อนไขซึ่งโดยทั่วไปแล้วจะเป็นผลลัพธ์ที่ทราบ ปัญหาคือว่าเนื่องจากฉันไม่ทราบค่าที่คาดหวังและดังนั้นความแปรปรวนของค่ามัธยฐานฉันจะต้องคำนวณค่าเหล่านั้นโดยใช้สถิติลำดับk + 1 k+1k+1แต่นั่นซับซ้อนมากและฉันจะไม่ไปที่นั่นเว้นแต่ฉันจะต้องทำอย่างแน่นอน

2
สังเกตเมทริกซ์ข้อมูลเป็นตัวประมาณความสอดคล้องของเมทริกซ์ข้อมูลที่คาดหวัง?
ฉันพยายามที่จะพิสูจน์ว่าเมทริกซ์ข้อมูลที่สังเกตได้ประเมินที่ตัวประมาณความน่าจะเป็นค่าสูงสุดที่ไม่สม่ำเสมอ (MLE) ซึ่งเป็นค่าประมาณที่ไม่แน่นอนของเมทริกซ์ข้อมูลที่คาดหวัง นี่คือผลลัพธ์ที่ยกมาอย่างกว้างขวาง แต่ไม่มีใครให้การอ้างอิงหรือหลักฐาน (ฉันหมดแรงฉันคิดว่าหน้าแรกของผลการค้นหาของ google และตำราสถิติของฉัน) 20 หน้า! การใช้ลำดับของ MLE ที่สอดคล้องกันอย่างอ่อนฉันสามารถใช้กฏที่อ่อนแอของจำนวนมาก (WLLN) และทฤษฎีการทำแผนที่แบบต่อเนื่องเพื่อให้ได้ผลลัพธ์ตามที่ฉันต้องการ อย่างไรก็ตามฉันเชื่อว่าไม่สามารถใช้ทฤษฎีบทการทำแผนที่อย่างต่อเนื่องได้ แต่ฉันคิดว่าต้องใช้กฎหมายเครื่องแบบของคนจำนวนมาก (ULLN) มีใครทราบถึงข้อมูลอ้างอิงที่มีหลักฐานนี้หรือไม่? ฉันมีความพยายามที่ ULLN แต่ไม่ต้องสนใจเลยสำหรับตอนนี้ ฉันต้องขออภัยในความยาวของคำถามนี้ แต่จะต้องมีการจดบันทึก สัญกรณ์เป็นเหมือน folows (หลักฐานของฉันอยู่ท้าย) สมมติว่าเรามีตัวอย่าง IID ของตัวแปรสุ่ม{ Y 1 , ... , Y N }{Y1,…,YN}\{Y_1,\ldots,Y_N\}กับความหนาแน่นฉ( ~ Y | θ )f(Y~|θ)f(\tilde{Y}|\theta)ที่θ ∈ Θ ⊆ R kθ∈Θ⊆Rk\theta\in\Theta\subseteq\mathbb{R}^{k} (ที่นี่~ YY~\tilde{Y}เป็นเพียงตัวแปรสุ่มทั่วไปที่มีความหนาแน่นเดียวกัน …


1
จำนวนสีที่คาดหวังที่แตกต่างกันเมื่อวาดโดยไม่ต้องเปลี่ยน
พิจารณาโกศที่มีลูกสีต่างกันโดยที่ เป็นสัดส่วนของลูกบอลสีในบรรดาลูกบอล ( ) ฉันวาดลูกบอลจากโกศโดยไม่ต้องเปลี่ยนและดูที่หมายเลขของสีที่ต่างกันระหว่างลูกบอลที่ถูกวาด ความคาดหวังของในฐานะฟังก์ชันของขึ้นอยู่กับคุณสมบัติที่เหมาะสมของการแจกแจงคืออะไร?NNNPPPpipip_iiiiNNN∑ipi=1∑ipi=1\sum_i p_i = 1n≤Nn≤Nn \leq Nγγ\gammaγγ\gamman/Nn/Nn/Npp\mathbf{p} เพื่อให้เข้าใจมากขึ้นถ้าและสำหรับแล้วฉันมักจะเห็นว่าสี, ที่อยู่,N) มิฉะนั้นก็สามารถแสดงให้เห็นว่าความคาดหวังของมีN) สำหรับและคงที่มันจะดูเหมือนว่าปัจจัยที่จะคูณจะสูงสุดเมื่อเหมือนกัน; จำนวนที่คาดหวังของสีที่ต่างกันที่เห็นถูก จำกัด ขอบเขตด้วยฟังก์ชันของและเช่น, เอนโทรปีของ ?N=PN=PN = Ppi=1/Ppi=1/Pp_i = 1/Piiinnnγ=P(n/N)γ=P(n/N)\gamma = P (n/N)γγ\gamma>P(n/N)>P(n/N)>P(n/N)PPPNNNn/Nn/Nn/Npp\mathbf{p}n/Nn/Nn/Npp\mathbf{p} ดูเหมือนว่าจะเกี่ยวข้องกับปัญหาของตัวสะสมคูปองยกเว้นการสุ่มตัวอย่างจะดำเนินการโดยไม่มีการแทนที่และการแจกคูปองไม่สม่ำเสมอ

1
สัญชาตญาณของตัวอย่างที่แลกเปลี่ยนได้ภายใต้สมมติฐานว่างคืออะไร
การทดสอบการเปลี่ยนรูป (เรียกอีกอย่างว่าการทดสอบแบบสุ่มการทดสอบแบบสุ่มอีกครั้งหรือการทดสอบที่แน่นอน) มีประโยชน์มากและมีประโยชน์เมื่อสมมติฐานของการแจกแจงปกติที่ต้องการโดยตัวอย่างเช่นt-testไม่พบและเมื่อการเปลี่ยนแปลงของค่าโดยการจัดอันดับ การทดสอบแบบไม่มีพารามิเตอร์Mann-Whitney-U-testจะนำไปสู่การสูญเสียข้อมูลมากขึ้น อย่างไรก็ตามไม่ควรมองข้ามสมมุติฐานข้อเดียวและข้อเดียวเพียงข้อเดียวเมื่อใช้การทดสอบชนิดนี้คือข้อสมมติฐานของความสามารถแลกเปลี่ยนได้ของตัวอย่างภายใต้สมมติฐานว่าง เป็นที่น่าสังเกตว่าวิธีการแบบนี้สามารถใช้ได้เมื่อมีตัวอย่างมากกว่าสองตัวอย่างเช่นสิ่งที่นำไปใช้ในcoinแพ็คเกจ R คุณช่วยกรุณาใช้ภาษาที่เป็นรูปเป็นร่างหรือปรีชาเชิงแนวคิดในภาษาอังกฤษธรรมดาเพื่อแสดงสมมติฐานนี้ได้หรือไม่? นี่จะมีประโยชน์มากในการอธิบายปัญหาที่ถูกมองข้ามในหมู่ผู้ที่ไม่ใช่นักสถิติเช่นฉัน หมายเหตุ: จะเป็นประโยชน์อย่างมากหากพูดถึงกรณีที่การใช้การทดสอบการเปลี่ยนแปลงไม่ถือหรือไม่ถูกต้องภายใต้สมมติฐานเดียวกัน ปรับปรุง: สมมติว่าฉันมี 50 วิชาที่รวบรวมจากคลินิกท้องถิ่นในเขตของฉันโดยการสุ่ม พวกเขาถูกสุ่มให้รับยาหรือยาหลอกในอัตราส่วน 1: 1 พวกเขาทั้งหมดถูกวัดสำหรับ Paramerter 1 Par1ที่ V1 (พื้นฐาน), V2 (3 เดือนต่อมา) และ V3 (1 ปีต่อมา) วิชาทั้งหมด 50 กลุ่มสามารถแบ่งเป็น 2 กลุ่มตามคุณสมบัติ A; ค่าบวก = 20 และค่าลบ = 30 นอกจากนี้ยังสามารถจัดกลุ่มย่อยได้อีก 2 กลุ่มตามคุณลักษณะ B; B positive = …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

4
ค่าที่คาดหวังกับค่าที่น่าจะเป็นที่สุด (โหมด)
ค่าที่คาดหวังของการแจกแจงคือค่าเฉลี่ยนั่นคือค่าเฉลี่ยถ่วงน้ำหนัก f(x)f(x)f(x)E[x]=∫+∞−∞xf(x)dxE[x]=∫−∞+∞xf(x)dxE[x]=\int_{-\infty}^{+\infty} x \, \, f(x) dx ค่าที่เป็นไปได้มากที่สุดคือโหมดซึ่งเป็นค่าที่น่าจะเป็นที่สุด อย่างไรก็ตามเราคาดหวังว่าจะเห็นหลายครั้ง? ข้อความจากที่นี่ :E[x]E[x]E[x] หากผลลัพธ์ไม่น่าจะเท่ากันดังนั้นค่าเฉลี่ยอย่างง่ายจะต้องถูกแทนที่ด้วยค่าเฉลี่ยถ่วงน้ำหนักซึ่งคำนึงถึงความจริงที่ว่าผลลัพธ์บางอย่างมีแนวโน้มมากกว่าคนอื่น ๆ สัญชาตญาณ แต่ยังคงเหมือนเดิม: มูลค่าที่คาดหวังของคือสิ่งหนึ่งที่คาดว่าจะเกิดขึ้นโดยเฉลี่ยxixix_ixxx ฉันไม่สามารถเข้าใจสิ่งที่ "เกิดขึ้นโดยเฉลี่ย" หมายความว่านี่หมายถึงว่าสำหรับ istance ใช้เวลานานมากในการคาดหวังว่าจะเห็นมากกว่าค่าอื่น ๆ ของหรือไม่? แต่นี่ไม่ใช่นิยามของโหมดใช่ไหมE[x]E[x]E[x]xxx ดังนั้นวิธีการตีความคำสั่งหรือไม่ ความหมายความน่าจะเป็นของคืออะไร?E[x]E[x]E[x] ฉันต้องการแสดงตัวอย่างที่ทำให้สับสน การศึกษาการฉันได้เรียนรู้ว่าโหมด นี้คือχ 2 m o d e = ν - 2ในขณะที่E [ χ 2 ] = νโดยที่νคือองศาของอิสระของข้อมูลχ2χ2\chi^2χ2mode=ν−2χmode2=ν−2\chi^2_{mode}=\nu-2E[χ2]=νE[χ2]=νE[\chi^2]=\nuνν\nu ผมได้ยินที่มหาวิทยาลัยว่าเมื่อทำทดสอบหลังการใช้สแควน้อยวิธีการเพื่อให้พอดีกับชุดของข้อมูลที่ฉันควรคาดหวังว่าจะได้รับχ 2 ≈ เข้าพบเพราะ "ว่าสิ่งที่เกิดขึ้นโดยทั่วไป"χ2χ2\chi^2χ2≈νχ2≈ν\chi^2 \approx …

2
ทำไมการกระจายของแรนด์ () ^ 2 แตกต่างจากแรนด์ () * แรนด์ ()
ใน Lotus Symphony Office rand()ฟังก์ชันจะพร้อมใช้งานซึ่งเลือกค่าสุ่มระหว่าง 0 ถึง 1 จากการแจกแจงแบบเดียวกัน ฉันเป็นสนิมขึ้นอยู่กับความน่าจะเป็นของฉันดังนั้นเมื่อฉันเห็นพฤติกรรมต่อไปนี้ฉันรู้สึกงงงวย: A = 200x1 คอลัมน์ของ rand()^2 B = 200x1 คอลัมน์ของ rand()*rand() mean(A) = 1/3 mean(B) = 1/4 ทำไมmean(A)! = 1/4?

3
เหตุใดจำนวนของตัวแปรสม่ำเสมออย่างต่อเนื่องใน (0,1) จำเป็นสำหรับผลรวมของพวกเขาที่มากกว่าหนึ่งมีค่าเฉลี่ย
ขอให้เราสรุปกระแสตัวแปรสุ่ม, Xi∼iidU(0,1)Xi∼iidU(0,1)X_i \overset{iid}\sim \mathcal{U}(0,1) ; ให้YYYเป็นจำนวนเทอมที่เราต้องการสำหรับผลรวมเกินหนึ่งกล่าวคือYYYเป็นจำนวนน้อยที่สุดเช่นนั้น X1+X2+⋯+XY>1.X1+X2+⋯+XY>1.X_1 + X_2 + \dots + X_Y > 1. ทำไมเฉลี่ยของYYYเท่ากับออยเลอร์คงeee ? E(Y)=e=10!+11!+12!+13!+…E(Y)=e=10!+11!+12!+13!+…\mathbb{E}(Y) = e = \frac{1}{0!} + \frac{1}{1!} + \frac{1}{2!} + \frac{1}{3!} + \dots

1
ค่าที่คาดหวังของการกระจาย Dirichlet ที่แก้ไขคืออะไร (ปัญหาการรวม)
มันง่ายในการสร้างตัวแปรสุ่มที่มีการแจกแจงไดริชเลตโดยใช้ตัวแปรแกมม่าที่มีพารามิเตอร์สเกลเดียวกัน ถ้า: Xi∼Gamma(αi,β)Xi∼Gamma(αi,β) X_i \sim \text{Gamma}(\alpha_i, \beta) แล้ว: (X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn)(X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn) \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \text{Dirichlet}(\alpha_1,\;\ldots\;,\alpha_n) ปัญหา จะเกิดอะไรขึ้นถ้าพารามิเตอร์ของสเกลไม่เท่ากัน Xi∼Gamma(αi,βi)Xi∼Gamma(αi,βi) X_i \sim \text{Gamma}(\alpha_i, \beta_i) แล้วการกระจายตัวของตัวแปรนี้คืออะไร? (X1∑jXj,…,Xn∑jXj)∼?(X1∑jXj,…,Xn∑jXj)∼? \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \; ? สำหรับฉันมันคงเพียงพอที่จะรู้คุณค่าที่คาดหวังของการกระจายตัวนี้ ฉันต้องการสูตรพีชคณิตแบบปิดโดยประมาณที่สามารถประเมินได้อย่างรวดเร็วโดยคอมพิวเตอร์ สมมุติว่าการประมาณด้วยความเที่ยงตรง 0.01 นั้นเพียงพอแล้ว คุณสามารถสันนิษฐานได้ว่า: αi,βi∈Nαi,βi∈N \alpha_i, \beta_i \in \mathbb{N} หมายเหตุในระยะสั้นงานคือการหาการประมาณของอินทิกรัลนี้: f(α⃗ ,β⃗ )=∫Rn+x1∑jxj⋅∏jβαjjΓ(αj)xαj−1je−βjxjdx1…dxnf(α→,β→)=∫R+nx1∑jxj⋅∏jβjαjΓ(αj)xjαj−1e−βjxjdx1…dxn …

1
Caret glmnet กับ cv.glmnet
ดูเหมือนจะมีความสับสนมากในการเปรียบเทียบการใช้glmnetภายในcaretเพื่อค้นหาแลมบ์ดาที่ดีที่สุดและใช้cv.glmnetในการทำงานเดียวกัน มีการตั้งคำถามมากมายเช่น: โมเดลการจำแนกประเภท train.glmnet vs. cv.glmnet วิธีที่เหมาะสมในการใช้ glmnet กับคาเร็ตคืออะไร? การตรวจสอบข้าม `glmnet 'โดยใช้` คาเร็ต' แต่ไม่ได้รับคำตอบซึ่งอาจเป็นเพราะความสามารถในการทำซ้ำของคำถาม ตามคำถามแรกฉันให้ตัวอย่างที่คล้ายกัน แต่มีคำถามเดียวกัน: ทำไม lambdas โดยประมาณแตกต่างกันอย่างไร library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.