คำถามติดแท็ก optimization

ใช้แท็กนี้สำหรับการใช้งานการเพิ่มประสิทธิภาพภายในสถิติ

2
การเพิ่มประสิทธิภาพเครื่องเวกเตอร์สนับสนุนด้วยการเขียนโปรแกรม Quadratic
ฉันพยายามที่จะเข้าใจกระบวนการสำหรับการฝึกอบรมเชิงเส้นเครื่องเวกเตอร์การสนับสนุน ฉันรู้ว่าคุณสมบัติของ SMV ช่วยให้พวกเขาได้รับการปรับให้เร็วที่สุดมากกว่าการใช้ตัวแก้ปัญหาการเขียนโปรแกรมแบบสี่เหลี่ยมจัตุรัส แต่เพื่อจุดประสงค์ในการเรียนรู้ ข้อมูลการฝึกอบรม set.seed(2015) df <- data.frame(X1=c(rnorm(5), rnorm(5)+5), X2=c(rnorm(5), rnorm(5)+3), Y=c(rep(1,5), rep(-1, 5))) df X1 X2 Y 1 -1.5454484 0.50127 1 2 -0.5283932 -0.80316 1 3 -1.0867588 0.63644 1 4 -0.0001115 1.14290 1 5 0.3889538 0.06119 1 6 5.5326313 3.68034 -1 7 3.1624283 2.71982 -1 8 5.6505985 …
12 r  svm  optimization 

2
พารามิเตอร์โอกาสสูงสุดเบี่ยงเบนจากการแจกแจงหลัง
ฉันมีฟังก์ชั่นความน่าจะเป็นL (d| θ)L(d|θ)\mathcal{L}(d | \theta)สำหรับความน่าจะเป็นของข้อมูลของฉันdddรับพารามิเตอร์บางรุ่นθ∈RNθ∈RN\theta \in \mathbf{R}^Nซึ่งผมอยากจะประมาณการ สมมติว่ามีค่าคงที่ของพารามิเตอร์ระดับความน่าจะเป็นเป็นสัดส่วนกับความน่าจะเป็นหลัง ฉันใช้วิธี MCMC เพื่อสุ่มตัวอย่างความน่าจะเป็นนี้ เมื่อดูที่ลูกโซ่ที่เกิดขึ้นฉันพบว่าพารามิเตอร์ความน่าจะเป็นสูงสุดนั้นไม่สอดคล้องกับการแจกแจงแบบหลัง ตัวอย่างเช่นการกระจายความน่าจะเป็นด้านหลังของชายขอบสำหรับหนึ่งในพารามิเตอร์อาจเป็นθ0∼N(μ=0,σ2=1)θ0∼N(μ=0,σ2=1)\theta_0 \sim N(\mu=0, \sigma^2=1)ในขณะที่ค่าของθ0θ0\theta_0ที่จุดน่าจะเป็นสูงสุดคือθML0≈4θ0ML≈4\theta_0^{ML} \approx 4โดยพื้นฐานแล้ว เกือบจะเป็นค่าสูงสุดของθ0θ0\theta_0ผ่านการสุ่มตัวอย่างโดย MCMC นี่เป็นตัวอย่างที่แสดงไม่ใช่ผลลัพธ์ที่แท้จริงของฉัน การแจกแจงจริงนั้นซับซ้อนกว่า แต่พารามิเตอร์ ML บางตัวมีค่า p ที่ไม่น่าเหมือนกันในการแจกแจงหลัง ทราบว่าบางส่วนของพารามิเตอร์ของฉันจะกระโดด (เช่น0≤θ1≤10≤θ1≤10 \leq \theta_1 \leq 1 ); ภายในขอบเขตนักบวชจะเหมือนกันเสมอ คำถามของฉันคือ: การเบี่ยงเบนนั้นเป็นปัญหาต่อหรือเปล่า เห็นได้ชัดว่าฉันไม่ได้คาดหวังว่าพารามิเตอร์ ML จะเหมือนกันซึ่งสูงสุดของการกระจายหลังส่วนล่างของพวกเขาแต่ละคน แต่สังหรณ์ใจมันรู้สึกว่าพวกเขาไม่ควรพบลึกลงไปในหาง การเบี่ยงเบนนี้ทำให้ผลลัพธ์ของฉันเป็นโมฆะโดยอัตโนมัติหรือไม่ ไม่ว่าจะเป็นปัญหาหรือไม่มันเป็นอาการของโรคที่เฉพาะเจาะจงในบางช่วงของการวิเคราะห์ข้อมูลหรือไม่? ตัวอย่างเช่นเป็นไปได้หรือไม่ที่จะสร้างคำแถลงทั่วไปเกี่ยวกับว่าการเบี่ยงเบนดังกล่าวอาจเกิดจากการรวมกันของโซ่ที่ไม่ถูกต้องแบบจำลองที่ไม่ถูกต้องหรือขอบเขตที่แน่นเกินไปของพารามิเตอร์

2
อัตราความผิดพลาดเป็นฟังก์ชันนูนของแลมบ์ดาของพารามิเตอร์การทำให้เป็นมาตรฐานหรือไม่?
ในการเลือก lambda พารามิเตอร์การทำให้เป็นมาตรฐานใน Ridge หรือ Lasso วิธีที่แนะนำคือลองค่า lambda ที่แตกต่างกัน, วัดข้อผิดพลาดใน Validation Set และสุดท้ายเลือกค่าของ lambda ที่ส่งกลับข้อผิดพลาดต่ำสุด มันไม่ได้เป็นคลีตสำหรับฉันถ้าฟังก์ชั่น f (lambda) = error คือ Convex มันเป็นอย่างนี้ได้ไหม? นั่นคือเส้นโค้งนี้มีมากกว่าหนึ่ง minima ท้องถิ่น (ซึ่งจะบอกเป็นนัยว่าการหาข้อผิดพลาดขั้นต่ำในบางพื้นที่ของแลมบ์ดาไม่ได้จำกัดความเป็นไปได้ที่ในบางภูมิภาคอื่น ๆ จะมีแลมบ์ดาที่กลับมา คำแนะนำของคุณจะได้รับการชื่นชม

3
การหาค่าเหมาะที่สุดของแบบจำลองสโตแคสติกคอมพิวเตอร์
นี่เป็นหัวข้อที่ยากสำหรับฉันในการใช้ google เนื่องจากการเพิ่มประสิทธิภาพของคำและสุ่มในการค้นหาเกือบจะเป็นค่าเริ่มต้นโดยอัตโนมัติในการค้นหาการเพิ่มประสิทธิภาพสุ่ม แต่สิ่งที่ฉันต้องการทราบจริงๆคือวิธีการใดที่มีอยู่สำหรับการทำให้เกิดประโยชน์สูงสุดของแบบจำลองคอมพิวเตอร์เมื่อผลลัพธ์ของแบบจำลองคอมพิวเตอร์เป็นแบบสุ่มนั่นคือไม่กำหนดขึ้น ตัวอย่างเช่นหากคุณพิจารณารูปแบบคอมพิวเตอร์ที่มีฟังก์ชั่นที่ไม่รู้จักที่แสดงถึงเอาท์พุทของรูปแบบคอมพิวเตอร์นั้นมีวิธีการทางสถิติมากมายสำหรับการแก้ปัญหาเช่นf(x)f(x)f(x) minxf(x)∈Xminf(x)x∈X\begin{align*} \min&\,\,\,\, f(x)\\ x&\in\mathcal{X} \end{align*} เมื่อf(x)f(x)f(x)ถูกกำหนดขึ้น แต่จะเกิดอะไรขึ้นเมื่อf(x)f(x)f(x)สุ่ม มีวิธีแก้ไขปัญหาหรือไม่เราสามารถแก้ไขได้ดีที่สุด minxE[f(x)]∈XminE[f(x)]x∈X\begin{align*} \min&\,\,\,\, \mathbb{E}[f(x)]\\ x&\in\mathcal{X} \end{align*} โดยที่E(⋅)E(⋅)\mathbb{E}(\cdot)เป็นผู้ดำเนินการตามปกติ

1
ปริศนาของช่างผม
ช่างทำผมของฉัน Stacey มักจะมีใบหน้าที่มีความสุข แต่มักจะเน้นเรื่องการจัดการเวลาของเธอ วันนี้ Stacey เกินกำหนดสำหรับการนัดหมายของฉันและขอโทษมาก ในขณะที่ได้รับการตัดผมของฉันฉันสงสัยว่า: นัดหมายมาตรฐานของเธอจะนานแค่ไหน? (หากลูกค้าไม่สนใจค่าหมายเลขรอบที่สะอาดก็สามารถทำได้ในขณะนี้) สิ่งที่ควรพิจารณาคือ 'เอฟเฟ็กต์ระลอกคลื่น' ซึ่งลูกค้าที่มาช้ามากคนหนึ่งสามารถนำไปสู่การนัดหมายที่ล่าช้า ในความเป็นจริงช่างทำผมได้เรียนรู้ที่จะนัดหมายในอวกาศนานขึ้นเรื่อย ๆ เพราะกลัววันเครียดเหล่านี้ แต่วิธีการแก้ปัญหาที่เหมาะสมและสง่างามจะต้องสามารถทำได้โดยอัจฉริยะทางสถิติบางอย่างที่นั่น .. (ถ้าเราลดความเป็นจริงลงเล็กน้อย) สมมติว่า a) เวลาในการตัดผมนั้นมีการกระจายตามปกติและ b) มีช่างทำผมเพียงคนเดียว ค่าใช้จ่ายในการตั้งค่าการนัดหมายนานเกินไปจะเห็นได้ชัดว่าช่างทำผมเสียเวลารอการนัดหมายครั้งต่อไป เรามาเสียเวลานี้ $ 1 ต่อนาที แต่หากการนัดหมายไม่เพียงพอลูกค้ารายต่อไปจะถูกรอคอยซึ่งเป็นค่าใช้จ่ายที่หนักกว่า $ 3 ต่อนาทีสำหรับ Stacey ผู้เป็นที่รักของลูกค้า Stacey ทำงานได้มากถึง 8 ชั่วโมงต่อวันและมีความต้องการมากพอที่จะเติมเต็มการนัดหมายให้มากที่สุดเท่าที่จะทำได้ การตัดผมเฉลี่ยนั้นใช้เวลา 30 นาทีโดยมี std dev จาก 10 นาที (สมมติว่าการตัดชายและการตัดผู้หญิงเป็นเหมือนกัน!) แก้ไข - …

3
การหยุดเกณฑ์สำหรับ Nelder Mead
ฉันกำลังพยายามใช้อัลกอริทึม Nelder-Mead สำหรับการปรับฟังก์ชั่นให้เหมาะสม หน้าวิกิพีเดียเกี่ยวกับ Nelder-มธุรสเป็นที่น่าแปลกใจที่ชัดเจนเกี่ยวกับขั้นตอนวิธีการทั้งหมดยกเว้นสำหรับเกณฑ์การหยุดของมัน ที่นั่นมันเศร้าพูดว่า: ตรวจสอบการบรรจบกัน[ต้องการชี้แจง] ฉันลองและทดสอบเกณฑ์สองสามข้อด้วยตัวเอง: หยุดถ้าโดยที่มีขนาดเล็กและที่คือจุดยอด th ของ simplex เรียงลำดับจากต่ำ ( ) ถึงสูง ( ) ค่าฟังก์ชัน กล่าวอีกนัยหนึ่งเมื่อค่าสูงสุดของ simplex เกือบเท่ากับค่าต่ำสุด ฉันพบว่ามันทำงานไม่ถูกต้องเนื่องจากมันไม่รับประกันว่าฟังก์ชั่นจะทำงานอย่างไรภายใน simplex ตัวอย่างพิจารณาฟังก์ชั่น:แน่นอนว่ามันเป็นเรื่องเล็กน้อยที่จะปรับให้เหมาะสม แต่สมมุติว่าเราทำสิ่งนี้ด้วย NM และให้จุดสองจุดคือและϵ x ฉันฉันf ( x 1 ) f ( x N + 1 ) f ( x ) = x 2 x 1 …

1
R / mgcv: เพราะเหตุใดผลิตภัณฑ์ te () และ ti () เทนเซอร์จึงให้พื้นผิวที่แตกต่างกัน
mgcvแพคเกจสำหรับการRมีสองฟังก์ชั่นสำหรับการปฏิสัมพันธ์กระชับเมตริกซ์ผลิตภัณฑ์: และte() ti()ฉันเข้าใจการแบ่งขั้นพื้นฐานของการใช้แรงงานระหว่างคนทั้งสอง (ปรับให้เหมาะสมกับการทำงานแบบไม่เป็นเชิงเส้นเปรียบเทียบกับการย่อยสลายการโต้ตอบนี้เป็นผลกระทบหลักและการโต้ตอบ) สิ่งที่ฉันไม่เข้าใจคือสาเหตุte(x1, x2)และti(x1) + ti(x2) + ti(x1, x2)อาจให้ผลลัพธ์ที่แตกต่าง (เล็กน้อย) MWE (ดัดแปลงมาจาก?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
MAP เป็นวิธีการแก้ปัญหา
ฉันเจอสไลด์เหล่านี้ (สไลด์ # 16 & # 17) ในหนึ่งในหลักสูตรออนไลน์ ผู้สอนพยายามอธิบายถึงวิธีการประมาณค่าสูงสุดหลัง (MAP) เป็นวิธีการแก้ปัญหาL(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}]โดยที่θ∗θ∗\theta^{*}เป็นพารามิเตอร์จริง ใครช่วยกรุณาอธิบายวิธีการดังต่อไปนี้? แก้ไข: เพิ่มสไลด์ในกรณีที่ลิงก์เสีย

1
LASSO ความสัมพันธ์ระหว่าง
ความเข้าใจของฉันเกี่ยวกับการถดถอย LASSO คือสัมประสิทธิ์การถดถอยถูกเลือกเพื่อแก้ปัญหาการย่อเล็กสุด: minβ∥y−Xβ∥22 s.t.∥β∥1≤tminβ‖y−Xβ‖22 s.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t ในทางปฏิบัติสิ่งนี้ทำได้โดยใช้ตัวคูณลากรองจ์ทำให้เกิดปัญหาในการแก้ปัญหา minβ∥y−Xβ∥22+λ∥β∥1minβ‖y−Xβ‖22+λ‖β‖1\min_\beta \|y - X \beta\|_2^2 + \lambda \|\beta\|_1 ความสัมพันธ์ระหว่างλλ\lambdaกับtttคืออะไร? วิกิพีเดียอย่างไม่ช่วยเหลือเพียงแค่ระบุว่า "ขึ้นอยู่กับข้อมูล" ทำไมฉันถึงแคร์ ประการแรกสำหรับความอยากรู้ทางปัญญา แต่ฉันก็กังวลเกี่ยวกับผลที่ตามมาสำหรับการเลือกλλ\lambdaโดยการตรวจสอบข้าม โดยเฉพาะถ้าฉันใช้การตรวจสอบความถูกต้องแบบครอส n-fold ฉันพอดีกับโมเดลที่แตกต่างกันกับ n พาร์ติชั่นต่าง ๆ ของข้อมูลการฝึกอบรมของฉัน จากนั้นฉันจะเปรียบเทียบความแม่นยำของโมเดลแต่ละรุ่นกับข้อมูลที่ไม่ได้ใช้สำหรับλλ\lambdaระบุ แต่\ lambdaเดียวกันλλ\lambdaหมายถึงข้อ จำกัด ที่แตกต่างกัน ( ttt ) สำหรับชุดย่อยที่แตกต่างกันของข้อมูล (เช่นt=f(λ)t=f(λ)t=f(\lambda)คือ "data dependent") ไม่ใช่ปัญหาการตรวจสอบข้ามที่ฉันต้องการแก้เพื่อค้นหาtttที่ให้การแลกเปลี่ยนอคติที่แม่นยำที่สุดหรือไม่ …

1
สเกล Lasso มีขนาดเมทริกซ์การออกแบบอย่างไร
ถ้าฉันมีเมทริกซ์การออกแบบโดยที่คือจำนวนการสังเกตของมิติความซับซ้อนในการแก้สำหรับด้วย LASSO, wrtและd ? ผมคิดว่าคำตอบควรดูที่วิธีการหนึ่ง Lasso ย้ำเครื่องชั่งน้ำหนักที่มีพารามิเตอร์เหล่านี้มากกว่าวิธีการที่จำนวนซ้ำ (ลู่) เครื่องชั่งน้ำหนักจนกว่าคุณจะรู้สึกอย่างอื่น n วันที่β = argmin β 1X∈ Rn × dX∈Rn×dX\in\mathcal{R}^{n\times d}nnndddndβ^= argminβ12 n| | Xβ- y| |2+ λ | | β| |1β^=argminβ12n||Xβ-Y||2+λ||β||1\hat{\beta}=\text{argmin}_{\beta}\frac{1}{2n} ||X\beta-y||^{2} + \lambda||\beta||_{1}nnnddd ฉันได้อ่านนี้ซับซ้อนก่อนหน้า Lasso คำถามแต่ดูเหมือนว่าที่ขัดแย้งกับการอภิปรายเกี่ยวกับ glmnet ที่นี่และที่นี่ ผมทราบว่ามีขั้นตอนวิธีการจำนวนมากออกมีรวมทั้ง glmnet ของวิธีการ GLM แต่ผมกำลังเขียนกระดาษเกี่ยวกับการเปลี่ยนองค์ประกอบ Lasso ขั้นตอนวิธีการที่ผู้ปกครองและต้องการที่จะรวมถึงการอภิปรายเกี่ยวกับความซับซ้อน Lasso โดยทั่วไปโดยเฉพาะอย่างยิ่งกับdddและnnnnฉันต้องการทราบความซับซ้อนของ glmnet ในกรณีที่ไม่กระจัดกระจายพื้นฐาน แต่บทความที่อ้างถึงมีความสับสนเล็กน้อยเนื่องจากความซับซ้อนของอัลกอริทึมทั้งหมดไม่ชัดเจน

2
Tensorflow `tf.train.Optimizer` คำนวณการไล่ระดับสีอย่างไร
ฉันกำลังติดตามบทช่วยสอนผู้ชาญฉลาด Tensorflow ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py ) บทช่วยสอนใช้tf.train.Optimizer.minimize(โดยเฉพาะtf.train.GradientDescentOptimizer) ฉันไม่เห็นข้อโต้แย้งใด ๆ ที่ถูกส่งผ่านไปที่ใดก็ได้เพื่อกำหนดการไล่ระดับสี Tensor flow นั้นใช้ความแตกต่างของตัวเลขหรือไม่? มีวิธีผ่านในการไล่ระดับสีอย่างที่คุณสามารถทำได้scipy.optimize.minimizeหรือไม่?

1
ทำไมระบบการให้คะแนน Elo ใช้กฎการอัปเดตที่ไม่ถูกต้อง
ระบบการจัดระดับ Elo ใช้อัลกอริธึมการลดความลาดชันแบบลาดชันของฟังก์ชั่นการสูญเสียข้ามเอนโทรปีระหว่างความน่าจะเป็นที่คาดหวังและที่สังเกตได้ของผลลัพธ์ในการเปรียบเทียบแบบคู่ เราสามารถเขียนฟังก์ชั่นการสูญเสียทั่วไปเป็น E= - ∑n , ฉันพีผมL o กรัม( qผม)E=−∑n,ipiLog(qi) E=-\sum_{n,i} p_i Log (q_i) ที่ผลรวมจะดำเนินการมากกว่าผลลัพธ์และฝ่ายตรงข้ามทั้งหมดn คือความถี่ที่สังเกตได้ของเหตุการณ์และถึงความถี่ที่คาดหวังn P ฉันฉันถามฉันผมผมinnnพีผมพีผมp_iผมผม_iQผมQผมq_i ในกรณีที่มีเพียงสองผลลัพธ์ที่เป็นไปได้ (ชนะหรือหลวม) และหนึ่งฝ่ายตรงข้ามที่เรามี E= - p L o g( q) - ( 1 - p ) L o g( 1 - q)E=-พีLโอก.(Q)-(1-พี)Lโอก.(1-Q) E=-p Log (q)-(1-p)Log(1-q) ถ้าคืออันดับของผู้เล่นและคืออันดับของผู้เล่นเราสามารถสร้างความน่าจะเป็นที่คาดหวังในฐานะ จากนั้นกฎการอัพเดทลาดลงทางลาดชันฉันπ j j q …

4
มีสูตรสำหรับเส้นโค้งรูปตัว s ที่มีโดเมนและช่วง [0,1]
โดยทั่วไปฉันต้องการแปลงมาตรการความคล้ายคลึงกันเป็นน้ำหนักซึ่งใช้เป็นตัวทำนาย ความคล้ายคลึงกันจะเป็น [0,1] และฉันจะ จำกัด น้ำหนักให้เป็น [0,1] ฉันต้องการฟังก์ชั่น paramteric ที่ทำแผนที่นี้ซึ่งฉันจะปรับให้เหมาะสมโดยใช้การไล่ระดับสี ความต้องการคือ 0 แผนที่ถึง 0, 1 แผนที่ถึง 1 และจะเพิ่มขึ้นอย่างเคร่งครัด อนุพันธ์ที่เข้าใจง่ายก็ชื่นชมเช่นกัน ขอบคุณล่วงหน้า แก้ไข: ขอบคุณสำหรับคำตอบจนถึงสิ่งเหล่านี้มีประโยชน์มาก เพื่อให้วัตถุประสงค์ของฉันชัดเจนยิ่งขึ้นภารกิจคือการคาดการณ์ การสังเกตของฉันเป็นเวกเตอร์กระจัดกระจายมากด้วยมิติเดียวที่จะทำนาย ขนาดอินพุตของฉันใช้เพื่อคำนวณความเหมือนกัน การทำนายของฉันคือผลรวมถ่วงน้ำหนักของค่าการสังเกตการณ์อื่นสำหรับนักทำนายซึ่งน้ำหนักนั้นเป็นฟังก์ชันที่มีความคล้ายคลึงกัน ฉัน จำกัด น้ำหนักของฉันไว้ที่ [0,1] เพื่อความเรียบง่าย ตอนนี้มันชัดเจนแล้วว่าทำไมฉันถึงต้องการ 0 ถึงแผนที่เป็น 0, 1 ถึงแผนที่เป็น 1 และมันจะเพิ่มขึ้นอย่างเคร่งครัด เนื่องจาก whuber ได้ชี้ให้เห็นว่าการใช้ f (x) = x ตรงตามข้อกำหนดเหล่านี้และใช้งานได้ดีจริง ๆ อย่างไรก็ตามไม่มีพารามิเตอร์ที่จะปรับให้เหมาะสม ฉันมีข้อสังเกตมากมายเพื่อให้สามารถทนต่อพารามิเตอร์จำนวนมากได้ …

4
รูปแบบประวัติเหตุการณ์แบบไม่ต่อเนื่อง (การอยู่รอด) ใน R
ฉันกำลังพยายามปรับโมเดลที่ไม่ต่อเนื่องใน R แต่ฉันไม่แน่ใจว่าจะทำอย่างไร ฉันได้อ่านแล้วว่าคุณสามารถจัดระเบียบตัวแปรตามในแถวต่างกันหนึ่งตัวสำหรับแต่ละการสังเกตเวลาและการใช้glmฟังก์ชั่นที่มีลิงค์ logit หรือ cloglog ในแง่นี้ฉันมีสามคอลัมน์: ID, Event(1 หรือ 0 ในแต่ละช่วงเวลา) และTime Elapsed(ตั้งแต่จุดเริ่มต้นของการสังเกต) รวมทั้ง covariates อื่น ๆ ฉันจะเขียนรหัสเพื่อให้พอดีกับรุ่นได้อย่างไร ตัวแปรตามคืออะไร ฉันเดาว่าฉันสามารถใช้Eventเป็นตัวแปรตามและรวมTime Elapsedอยู่ใน covariates แต่สิ่งที่เกิดขึ้นกับID? ฉันต้องการมันไหม ขอบคุณ
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

4
การเพิ่มประสิทธิภาพโคตรลาด
ฉันกำลังพยายามทำความเข้าใจกับการหาค่าเหมาะที่สุดสำหรับการไล่ระดับสีแบบลาดชันในขั้นตอนวิธี ML (การเรียนรู้ของเครื่อง) ผมเข้าใจว่ามีค่าใช้จ่ายในฟังก์ชั่นที่มีจุดมุ่งหมายเพื่อลดข้อผิดพลาดyy ในสถานการณ์ที่น้ำหนักได้รับการปรับให้เหมาะสมเพื่อให้เกิดข้อผิดพลาดขั้นต่ำและมีการใช้อนุพันธ์บางส่วนมันเปลี่ยนทั้งและในแต่ละขั้นตอนหรือเป็นการรวมกัน (เช่นในการทำซ้ำสองสามเท่านั้นเท่านั้นและ เมื่อไม่ได้ลดความผิดพลาดอีกต่อไปอนุพันธ์เริ่มต้นด้วย )? แอปพลิเคชันอาจเป็นแบบจำลองการถดถอยเชิงเส้นแบบจำลองการถดถอยแบบโลจิสติกหรือการเพิ่มอัลกอริทึมY^- yY^-Y\hat y-yW1,W2W1,W2w_1, w_2W1W1w_1W2W2w_2W1W1w_1W1W1w_1W2W2w_2

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.