คำถามติดแท็ก exponential

การแจกแจงที่อธิบายเวลาระหว่างเหตุการณ์ในกระบวนการปัวซอง อะนาล็อกอย่างต่อเนื่องของการกระจายทางเรขาคณิต

3
อะไรคือข้อได้เปรียบของเครื่องกำเนิดไฟฟ้าแบบเอกซ์โพเนนเชียลแบบสุ่มโดยใช้วิธีของ Ahrens และ Dieter (1972) แทนที่จะใช้การแปลงผกผัน?
คำถามของฉันเป็นแรงบันดาลใจR 's rexp()ในตัวเครื่องกำเนิดไฟฟ้าจำนวนสุ่มชี้แจงฟังก์ชั่น เมื่อพยายามที่จะสร้างการกระจายชี้แจงตัวเลขสุ่มตำราหลายแนะนำผกผันเปลี่ยนวิธีการตามที่ระบุไว้ในหน้านี้วิกิพีเดีย ฉันรู้ว่ามีวิธีการอื่นเพื่อให้งานนี้สำเร็จ โดยเฉพาะอย่างยิ่งR 's รหัสที่มาใช้วิธีการที่ระบุไว้ในกระดาษโดย Ahrens & หิวโหย (1972) ฉันมั่นใจว่าวิธี Ahrens-Dieter (AD) นั้นถูกต้อง ยังฉันไม่เห็นประโยชน์ของการใช้วิธีการของพวกเขาเมื่อเทียบกับวิธีการแปลงผกผัน (IT) โฆษณาไม่เพียง แต่ซับซ้อนในการติดตั้งมากกว่าไอที ดูเหมือนจะไม่ได้รับประโยชน์ความเร็วอย่างใดอย่างหนึ่ง นี่คือรหัสRของฉันที่จะเปรียบเทียบทั้งสองวิธีแล้วตามด้วยผลลัพธ์ invTrans <- function(n) -log(runif(n)) print("For the inverse transform:") print(system.time(invTrans(1e8))) print("For the Ahrens-Dieter algorithm:") print(system.time(rexp(1e8))) ผล: [1] "For the inverse transform:" user system elapsed 4.227 0.266 4.597 [1] "For …

2
สถิติการสั่งซื้อ (เช่นขั้นต่ำ) ของการรวบรวมตัวแปรไคสแควร์ไม่สิ้นสุด?
นี่เป็นครั้งแรกของฉันที่นี่ดังนั้นโปรดแจ้งให้เราทราบหากฉันสามารถชี้แจงคำถามของฉันไม่ว่าทางใดทางหนึ่ง (รวมถึงการจัดรูปแบบแท็ก ฯลฯ ) (และหวังว่าฉันจะสามารถแก้ไขได้ในภายหลัง!) ฉันพยายามค้นหาการอ้างอิงและพยายามแก้ไขตัวเองโดยใช้การเหนี่ยวนำ แต่ล้มเหลวทั้งสองอย่าง ฉันพยายามทำให้การกระจายง่ายขึ้นซึ่งดูเหมือนว่าจะลดลงเป็นสถิติการเรียงลำดับของตัวแปรสุ่มอิสระไม่มีที่สิ้นสุดพร้อมด้วยองศาอิสระที่แตกต่างกัน โดยเฉพาะการกระจายตัวของค่าที่เล็กที่สุดในคืออะไรระหว่าง\ chi ^ 2_2, \ chi ^ 2_4, \ chi ^ 2_6, \ chi ^ 2_8, \ ldots ?χ2χ2\chi^2mmmχ22,χ24,χ26,χ28,…χ22,χ42,χ62,χ82,…\chi^2_2,\chi^2_4,\chi^2_6,\chi^2_8,\ldots ฉันสนใจกรณีพิเศษm=1m=1m=1 : การกระจายขั้นต่ำของ (อิสระ) χ22,χ24,χ26,…χ22,χ42,χ62,…\chi^2_2,\chi^2_4,\chi^2_6,\ldotsคืออะไร? สำหรับกรณีที่น้อยที่สุดฉันสามารถเขียนฟังก์ชันการแจกแจงสะสม (CDF) เป็นผลิตภัณฑ์ที่ไม่มีที่สิ้นสุด แต่ไม่สามารถทำให้มันง่ายขึ้นอีก ฉันใช้ข้อเท็จจริงว่า CDF ของχ22mχ2m2\chi^2_{2m}คือF2m(x)=γ(m,x/2)/Γ(m)=γ(m,x/2)/(m−1)!=1−e−x/2∑k=0m−1xk/(2kk!).F2m(x)=γ(m,x/2)/Γ(m)=γ(m,x/2)/(m−1)!=1−e−x/2∑k=0m−1xk/(2kk!).F_{2m}(x)=\gamma(m,x/2)/\Gamma(m)=\gamma(m,x/2)/(m-1)!=1-e^{-x/2}\sum_{k=0}^{m-1}x^k/(2^k k!). (ด้วยm=1m=1m=1นี่เป็นการยืนยันความคิดเห็นที่สองด้านล่างเกี่ยวกับความเท่าเทียมกับการแจกแจงแบบเอ็กซ์โพเนนเชียลโดยมีความคาดหวัง 2) CDF ของขั้นต่ำสามารถเขียนเป็นFmin(x)=1−(1−F2(x))(1−F4(x))…=1−∏m=1∞(1−F2m(x))Fmin(x)=1−(1−F2(x))(1−F4(x))…=1−∏m=1∞(1−F2m(x))F_{min}(x) = 1-(1-F_2(x))(1-F_4(x))\ldots = 1-\prod_{m=1}^\infty (1-F_{2m}(x)) =1−∏m=1∞(e−x/2∑k=0m−1xk2kk!).=1−∏m=1∞(e−x/2∑k=0m−1xk2kk!).= …

1
R / mgcv: เพราะเหตุใดผลิตภัณฑ์ te () และ ti () เทนเซอร์จึงให้พื้นผิวที่แตกต่างกัน
mgcvแพคเกจสำหรับการRมีสองฟังก์ชั่นสำหรับการปฏิสัมพันธ์กระชับเมตริกซ์ผลิตภัณฑ์: และte() ti()ฉันเข้าใจการแบ่งขั้นพื้นฐานของการใช้แรงงานระหว่างคนทั้งสอง (ปรับให้เหมาะสมกับการทำงานแบบไม่เป็นเชิงเส้นเปรียบเทียบกับการย่อยสลายการโต้ตอบนี้เป็นผลกระทบหลักและการโต้ตอบ) สิ่งที่ฉันไม่เข้าใจคือสาเหตุte(x1, x2)และti(x1) + ti(x2) + ti(x1, x2)อาจให้ผลลัพธ์ที่แตกต่าง (เล็กน้อย) MWE (ดัดแปลงมาจาก?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
ค่าเฉลี่ยของการแจกแจงเลขชี้กำลังผกผัน
ให้ตัวแปรสุ่มค่าเฉลี่ยและความแปรปรวนของG = 1 คืออะไรY= Ex p ( λ )Y=Exp(λ)Y = Exp(\lambda)ไหมG = 1YG=1YG=\dfrac{1}{Y} ฉันดูการแจกแจงผกผันแกมม่า แต่ค่าเฉลี่ยและความแปรปรวนถูกกำหนดเฉพาะสำหรับและα > 2ตามลำดับ ...α > 1α>1\alpha>1α > 2α>2\alpha>2

1
MLE ของ
สมมติว่ามี pdf(X,Y)(X,Y)(X,Y) fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 ความหนาแน่นของตัวอย่างดึงมาจากประชากรนี้จึงเป็น(X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} ตัวประมาณโอกาสสูงสุดของสามารถได้รับเป็นθθ\theta θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} ฉันต้องการทราบว่าการ จำกัด การกระจายของ MLE นี้เป็นปกติหรือไม่ เป็นที่ชัดเจนว่าเป็นสถิติที่เพียงพอสำหรับตามกลุ่มตัวอย่างคือY)θθ\theta(X¯¯¯¯,Y¯¯¯¯)(X¯,Y¯)(\overline X,\overline Y) ตอนนี้ฉันจะได้กล่าวว่า MLE เป็นอาการปกติโดยไม่ต้องสงสัยถ้ามันเป็นสมาชิกของตระกูลเลขชี้กำลังหนึ่งพารามิเตอร์แบบปกติ ฉันไม่คิดว่าเป็นเช่นนั้นส่วนหนึ่งเป็นเพราะเรามีสถิติเพียงพอสองมิติสำหรับพารามิเตอร์หนึ่งมิติ (เช่นในการแจกแจง )N(θ,θ2)N(θ,θ2)N(\theta,\theta^2) การใช้ความจริงที่ว่าและเป็นตัวแปรเอกซ์โปเนนเชียลที่เป็นอิสระฉันสามารถแสดงให้เห็นว่าการกระจายที่แน่นอนของเป็นเช่นนั้นXXXYYYθθ^θ^\hat\theta θ^θ=dF−−√, where F∼F2n,2nθ^θ=dF, where F∼F2n,2n\frac{\hat\theta}{\theta}\stackrel{d}{=} \sqrt F\quad,\text{ where …

1
การกระจายอัตราส่วนของระยะห่างและตัวอย่างหมายถึงอะไร
ให้X1,…,XnX1,…,XnX_1,\dots,X_nเป็นตัวอย่างของตัวแปรสุ่มแบบเลขชี้กำลังของ iid ที่มีค่าเฉลี่ยββ\betaและให้X(1),…,X(n)X(1),…,X(n)X_{(1)},\dots,X_{(n)}เป็นสถิติการสั่งซื้อจากตัวอย่างนี้ ให้X¯=1n∑ni=1XiX¯=1n∑i=1nXi\bar X = \frac{1}{n}\sum_{i=1}^n X_iฉัน กำหนดระยะห่างWi=X(i+1)−X(i) ∀ 1≤i≤n−1.Wi=X(i+1)−X(i) ∀ 1≤i≤n−1.W_i=X_{(i+1)}-X_{(i)}\ \forall\ 1 \leq i \leq n-1\,. มันสามารถแสดงให้เห็นว่าแต่ละWiWiW_iเป็นเลขชี้กำลังด้วยค่าเฉลี่ยβi=βn−iβi=βn−i\beta_i=\frac{\beta}{n-i}ฉัน คำถาม:ฉันจะไปเกี่ยวกับการหาวิธีP(WiX¯>t)P(WiX¯>t)\mathbb{P}\left( \frac{W_i}{\bar X} > t \right)ที่tttรู้จักและไม่เป็นลบ? พยายาม:ฉันรู้ว่านี้จะมีค่าเท่ากับ1−FWi(tX¯)1−FWi(tX¯)1 - F_{W_i}\left(t \bar X\right) ) ดังนั้นผมจึงใช้กฎหมายของความน่าจะรวมเช่นดังนั้น: P(Wi>tX¯)=1−FWi(tX¯)=1−∫∞0FWi(ts)fX¯(s)ds,P(Wi>tX¯)=1−FWi(tX¯)=1−∫0∞FWi(ts)fX¯(s)ds, \mathbb{P}\left( W_i > t \bar X \right) = 1 - F_{W_i}\left( t \bar X \right) = …

1
ตัวประมาณความน่าจะเป็นสูงสุดสำหรับการแจกแจงแบบเลขชี้กำลังขั้นต่ำ
ฉันติดอยู่กับวิธีการแก้ไขปัญหานี้ ดังนั้นเรามีสองลำดับของตัวแปรสุ่มและY ฉันสำหรับฉัน= 1 , . . , n . ตอนนี้XและYมีการกระจายชี้แจงอิสระที่มีพารามิเตอร์λและμ แต่แทนที่จะสังเกตXและY , เราสังเกตแทนZและWXผมXiX_iYผมYiY_iฉัน= 1 , . . , ni=1,...,ni=1,...,nXXXYYYλλ\lambdaμμ\muXXXYYYZZZWWW และ W = 1ถ้า Z ฉัน = X ฉันและ 0 ถ้า Z ฉัน = Yฉัน ฉันต้องไปหารูปแบบปิดสำหรับประมาณค่าความน่าจะเป็นสูงสุดของ λและ μบนพื้นฐานของ ZและW นอกจากนี้เราต้องแสดงให้เห็นว่าสิ่งเหล่านี้เป็น maxima ระดับโลกZ=min(Xi,Yi)Z=min(Xi,Yi)Z=\min(X_i,Y_i)W=1W=1W=1Zi=XiZi=XiZ_i=X_iZi=YiZi=YiZ_i=Y_iλλ\lambdaμμ\muZZZWWW ตอนนี้ฉันรู้ว่าอย่างน้อยสอง exponentials อิสระเป็นตัวเองชี้แจงกับอัตราเท่ากับผลรวมของอัตราเพื่อให้เรารู้ว่าคือการชี้แจงกับพารามิเตอร์λ + μ ดังนั้นประมาณการโอกาสสูงสุดของเราคือ: λ + …

2
วิธีเปรียบเทียบค่าเฉลี่ยของสองตัวอย่างที่มีข้อมูลตรงกับการแจกแจงแบบเอ็กซ์โพเนนเชียล
ฉันมีสองตัวอย่างของข้อมูลตัวอย่างพื้นฐานและตัวอย่างการรักษา สมมติฐานคือตัวอย่างการรักษามีค่าเฉลี่ยสูงกว่าตัวอย่างพื้นฐาน ตัวอย่างทั้งสองมีรูปแบบเลขชี้กำลัง เนื่องจากข้อมูลมีขนาดค่อนข้างใหญ่ฉันจึงมีเพียงค่าเฉลี่ยและจำนวนองค์ประกอบสำหรับแต่ละตัวอย่าง ณ เวลาที่ฉันจะทำการทดสอบ ฉันจะทดสอบสมมติฐานนั้นได้อย่างไร ฉันเดาว่ามันง่ายสุด ๆ และฉันได้พบการอ้างอิงหลายอย่างเกี่ยวกับการใช้การทดสอบ F แต่ฉันไม่แน่ใจว่าพารามิเตอร์แมป

1
การแก้ไขความไม่แม่นยำของสัญญาณนาฬิกาแบบกระจายตามปกติ
ฉันมีการทดสอบซึ่งดำเนินการกับคอมพิวเตอร์หลายร้อยเครื่องกระจายไปทั่วโลกที่วัดการเกิดเหตุการณ์บางอย่าง เหตุการณ์แต่ละเหตุการณ์นั้นขึ้นอยู่กับอีกเหตุการณ์หนึ่งดังนั้นฉันจึงสามารถสั่งในลำดับที่เพิ่มขึ้นแล้วคำนวณความแตกต่างของเวลา เหตุการณ์ควรจะมีการแจกแจงแบบทวีคูณ แต่เมื่อทำการพล็อตฮิสโตแกรมนี่คือสิ่งที่ฉันได้รับ: ความไม่แน่ชัดของนาฬิกาที่คอมพิวเตอร์ทำให้เกิดเหตุการณ์บางอย่างที่จะได้รับมอบหมายเวลาประทับก่อนหน้าของเหตุการณ์ที่พวกเขาขึ้นอยู่กับ ฉันสงสัยว่าการซิงโครไนซ์นาฬิกาสามารถถูกกล่าวหาได้หรือไม่ว่าจุดสูงสุดของ PDF ไม่เป็น 0 (ว่าพวกเขาเปลี่ยนทุกอย่างไปทางขวา) หรือไม่ หากความแตกต่างของนาฬิกามีการกระจายตามปกติฉันสามารถสมมติว่าเอฟเฟกต์จะชดเชยให้กันและใช้เวลาต่างกันที่คำนวณได้หรือไม่?

1
รูปแบบการเรียนรู้แบบลึกใดที่สามารถจำแนกหมวดหมู่ที่ไม่ได้เกิดร่วมกัน
ตัวอย่าง: ฉันมีประโยคในรายละเอียดงาน: "วิศวกรอาวุโสของ Java ในสหราชอาณาจักร" ฉันต้องการที่จะใช้รูปแบบการเรียนรู้ที่ลึกที่จะคาดการณ์ว่ามันเป็น 2 ประเภทและEnglish IT jobsถ้าฉันใช้รูปแบบการจำแนกแบบดั้งเดิมมันสามารถทำนายได้เพียง 1 ฉลากที่มีsoftmaxฟังก์ชั่นที่ชั้นสุดท้าย ดังนั้นฉันสามารถใช้โครงข่ายประสาทเทียม 2 แบบในการทำนาย "ใช่" / "ไม่" กับทั้งสองหมวดหมู่ แต่ถ้าเรามีหมวดหมู่มากขึ้นมันก็แพงเกินไป ดังนั้นเราจึงมีรูปแบบการเรียนรู้หรือการเรียนรู้ด้วยเครื่องเพื่อคาดการณ์ 2 หมวดหมู่ขึ้นไปพร้อมกันหรือไม่ "แก้ไข": ด้วย 3 ป้ายกำกับโดยวิธีดั้งเดิมมันจะถูกเข้ารหัสโดย [1,0,0] แต่ในกรณีของฉันมันจะถูกเข้ารหัสโดย [1,1,0] หรือ [1,1,1] ตัวอย่าง: หากเรามี 3 ป้ายกำกับและประโยคอาจเหมาะกับป้ายกำกับเหล่านี้ทั้งหมด ดังนั้นถ้าผลลัพธ์จากฟังก์ชัน softmax คือ [0.45, 0.35, 0.2] เราควรแบ่งมันออกเป็น 3 label หรือ 2 label หรืออาจเป็นหนึ่ง? ปัญหาหลักเมื่อเราทำคือ: …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
ความครอบคลุมต่ำกว่าที่คาดสำหรับการสุ่มตัวอย่างที่สำคัญด้วยการจำลอง
ผมพยายามที่จะตอบคำถามที่ประเมินหนึ่งด้วยวิธีการสุ่มตัวอย่างความสำคัญในการวิจัย โดยทั่วไปผู้ใช้จำเป็นต้องคำนวณ ∫π0ฉ( x ) dx =∫π01cos( x)2+x2dx∫0πf(x)dx=∫0π1cos⁡(x)2+x2dx\int_{0}^{\pi}f(x)dx=\int_{0}^{\pi}\frac{1}{\cos(x)^2+x^2}dx ใช้การแจกแจงเอ็กซ์โพเนนเชียลเป็นการกระจายความสำคัญ Q( x ) = λ ประสบการณ์- λ xq(x)=λ exp−λxq(x)=\lambda\ \exp^{-\lambda x} และค้นหาค่าของซึ่งให้ค่าประมาณที่ดีขึ้นกับอินทิกรัล (ของมัน) ผมแต่งปัญหาการประเมินผลของค่าเฉลี่ยของในช่วง : หนึ่งคือแล้วเพียงแค่\ λλ\lambdaself-studyμμ\muฉ( x )f(x)f(x)[ 0 , π][0,π][0,\pi]πμπμ\pi\mu ดังนั้นให้เป็น pdf ของและให้ : เป้าหมายตอนนี้คือการประมาณp ( x )p(x)p(x)X∼ คุณ( 0 , π)X∼U(0,π)X\sim\mathcal{U}(0,\pi)Y∼ f( X)Y∼f(X)Y\sim f(X) μ = E [ …

1
วิธีการคำนวณฟังก์ชั่นความน่าจะเป็น
อายุการใช้งาน 3 ส่วนอิเล็กทรอนิกส์และ2.1 ตัวแปรสุ่มได้รับการจำลองเป็นตัวอย่างที่สุ่มจากขนาด 3 จากการกระจายชี้แจงกับพารามิเตอร์\ theta ฟังก์ชันความน่าจะเป็นคือสำหรับ\ theta> 0X1= 3 ,X2= 1.5 ,X1=3,X2=1.5,X_{1} = 3, X_{2} = 1.5,X3= 2.1X3=2.1X_{3} = 2.1θθ\thetaθ > 0θ>0\theta > 0 ฉ3( x | θ ) =θ3e x p ( - 6.6 θ )ฉ3(x|θ)=θ3อีxพี(-6.6θ)f_{3}(x|\theta) = \theta^{3} exp(-6.6\theta)ที่x = ( 2 , 1.5 , 2.1 )x=(2,1.5,2.1)x …

1
จะเปรียบเทียบเหตุการณ์ที่สังเกตได้กับเหตุการณ์ที่คาดหวังได้อย่างไร
สมมติว่าฉันมีตัวอย่างหนึ่งความถี่ของเหตุการณ์ที่เป็นไปได้ 4 เหตุการณ์: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 และฉันมีโอกาสที่จะเกิดเหตุการณ์ที่คาดหวัง: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 ด้วยผลรวมของความถี่ที่สังเกตได้จากเหตุการณ์ทั้งสี่ของฉัน (18) ฉันสามารถคำนวณความถี่ที่คาดหวังของเหตุการณ์ได้ใช่ไหม expectedE1 - 18 * 0.2 = 3.6 expectedE2 - 18 * 0.1 = 1.8 expectedE1 - 18 * 0.1 …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

2
คำนวณ ROC curve สำหรับข้อมูล
ดังนั้นฉันมีการทดลอง 16 ครั้งที่ฉันพยายามพิสูจน์ตัวตนบุคคลจากลักษณะทางชีวภาพโดยใช้ Hamming Distance เกณฑ์ของฉันถูกตั้งไว้ที่ 3.5 ข้อมูลของฉันอยู่ด้านล่างและเฉพาะการทดลองใช้ 1 เท่านั้นคือ True Positive: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 จุดสับสนของฉันคือฉันไม่แน่ใจจริงๆเกี่ยวกับวิธีสร้าง ROC curve …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.