คำถามติดแท็ก exponential-smoothing

3
ตัวอย่าง: การถดถอย LASSO โดยใช้ glmnet สำหรับผลลัพธ์ไบนารี
ฉันเริ่มตะลุยกับการใช้งานglmnetกับการถดถอยแบบ LASSOซึ่งผลลัพธ์ของความสนใจของฉันนั้นเป็นแบบขั้วคู่ ฉันได้สร้างกรอบข้อมูลจำลองขนาดเล็กด้านล่าง: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
ฟังก์ชัน ETS () จะหลีกเลี่ยงการคาดการณ์ที่ไม่สอดคล้องกับข้อมูลในอดีตได้อย่างไร
ฉันกำลังทำงานกับ alogorithm ใน R เพื่อทำการคำนวณการพยากรณ์รายเดือนโดยอัตโนมัติ ฉันกำลังใช้ฟังก์ชั่น ets () จากแพ็คเกจการคาดการณ์เพื่อคำนวณการคาดการณ์ มันทำงานได้ดีมาก น่าเสียดายที่ในบางช่วงเวลาผลลัพธ์ที่ฉันได้รับนั้นแปลก กรุณาค้นหาด้านล่างรหัสฉันใช้: train_ts<- ts(values, frequency=12) fit2<-ets(train_ts, model="ZZZ", damped=TRUE, alpha=NULL, beta=NULL, gamma=NULL, phi=NULL, additive.only=FALSE, lambda=TRUE, lower=c(0.0001,0.0001,0.0001,0.8),upper=c(0.9999,0.9999,0.9999,0.98), opt.crit=c("lik","amse","mse","sigma","mae"), nmse=3, bounds=c("both","usual","admissible"), ic=c("aicc","aic","bic"), restrict=TRUE) ets <- forecast(fit2,h=forecasthorizon,method ='ets') โปรดคุณจะพบชุดข้อมูลประวัติที่เกี่ยวข้องด้านล่าง: values <- c(27, 27, 7, 24, 39, 40, 24, 45, 36, 37, 31, 47, 16, …

3
แบบจำลองอนุกรมเวลาทั้งหมด
ฉันต้องทำการพยากรณ์อนุกรมเวลาโดยอัตโนมัติและฉันไม่ทราบล่วงหน้าเกี่ยวกับคุณลักษณะของซีรี่ส์เหล่านั้น (ฤดูกาล, แนวโน้ม, เสียง, ฯลฯ ) เป้าหมายของฉันคือไม่ได้แบบที่ดีที่สุดเท่าที่จะเป็นไปได้สำหรับแต่ละซีรี่ย์ แต่เพื่อหลีกเลี่ยงโมเดลที่แย่มาก กล่าวอีกนัยหนึ่งการได้รับข้อผิดพลาดเล็ก ๆ น้อย ๆ ทุกครั้งไม่ใช่ปัญหา แต่จะได้รับข้อผิดพลาดใหญ่ ๆ เป็นครั้งคราว ฉันคิดว่าฉันสามารถทำสิ่งนี้ได้โดยการรวมโมเดลที่คำนวณด้วยเทคนิคที่แตกต่างกัน นั่นคือแม้ว่า ARIMA จะเป็นวิธีที่ดีที่สุดสำหรับซีรีส์หนึ่ง แต่มันอาจจะไม่ดีที่สุดสำหรับซีรีย์อื่น เช่นเดียวกับการปรับให้เรียบแบบเอกซ์โพเนนเชียล อย่างไรก็ตามถ้าฉันรวมโมเดลหนึ่งจากแต่ละเทคนิคแม้ว่าหนึ่งโมเดลจะไม่ดีนัก แต่อีกรุ่นจะนำค่าประมาณมาใกล้เคียงกับมูลค่าที่แท้จริงมากขึ้น เป็นที่ทราบกันดีว่า ARIMA ใช้งานได้ดีกว่าสำหรับซีรีย์ที่มีพฤติกรรมดีในระยะยาวในขณะที่การปรับให้เรียบแบบเอ็กซ์โปเนนเชียลนั้นดูโดดเด่นด้วยซีรีย์ที่มีเสียงรบกวนระยะสั้น ความคิดของฉันคือการรวมโมเดลที่สร้างจากทั้งสองเทคนิคเพื่อให้ได้การคาดการณ์ที่มีประสิทธิภาพยิ่งขึ้น อาจมีหลายวิธีในการรวมโมเดลเหล่านั้น หากนี่เป็นวิธีการที่ดีฉันจะรวมมันอย่างไร ค่าเฉลี่ยของการคาดการณ์อย่างง่ายคือตัวเลือก แต่บางทีฉันอาจได้การคาดการณ์ที่ดีกว่าถ้าฉันให้น้ำหนักค่าเฉลี่ยตามแบบวัดความดีของแบบจำลอง อะไรคือการรักษาความแปรปรวนเมื่อรวมตัวแบบ?

1
เมื่อใดจึงต้องใช้ Exponential Smoothing vs ARIMA?
เมื่อไม่นานมานี้ฉันได้รับการฟื้นฟูความรู้ที่คาดการณ์ของฉันในขณะที่ทำงานกับการคาดการณ์รายเดือนในที่ทำงานและการอ่านหนังสือของ Rob Hyndman แต่ที่เดียวที่ฉันกำลังดิ้นรนคือเมื่อใช้แบบจำลองการทำให้เรียบชี้แจงแทน มีกฎง่ายๆที่คุณควรใช้วิธีการหนึ่งเทียบกับวิธีอื่นหรือไม่ นอกจากนี้เนื่องจากคุณไม่สามารถใช้ AIC เพื่อเปรียบเทียบทั้งสองคุณเพียงแค่ต้องไปโดย RMSE, MAE เป็นต้น? ขณะนี้ฉันเพิ่งสร้างแต่ละไม่กี่และเปรียบเทียบมาตรการข้อผิดพลาด แต่ฉันไม่แน่ใจว่ามีวิธีที่ดีกว่าที่จะใช้

3
ใช้ Holt-Winters หรือ ARIMA หรือไม่
คำถามของฉันเกี่ยวกับความแตกต่างทางแนวคิดระหว่าง Holt-Winters และ ARIMA เท่าที่ฉันเข้าใจ Holt-Winters เป็นกรณีพิเศษของ ARIMA แต่เมื่อไรที่อัลกอริทึมหนึ่งต้องการมากกว่าอีกอันหนึ่ง? บางทีโฮลท์ - วินเทอร์เป็นแบบเพิ่มขึ้นดังนั้นจึงทำหน้าที่เป็นอัลกอริทึมแบบอินไลน์ (เร็วกว่า)? รอคอยที่จะเข้าใจบางอย่างที่นี่

1
ค่าเบี่ยงเบนมาตรฐานของค่าเฉลี่ยถ่วงน้ำหนักแบบเอ็กซ์โปเนนเชียล
ฉันเขียนฟังก์ชันง่าย ๆ ใน Python เพื่อคำนวณค่าเฉลี่ยถ่วงน้ำหนักชี้แจง: def test(): x = [1,2,3,4,5] alpha = 0.98 s_old = x[0] for i in range(1, len(x)): s = alpha * x[i] + (1- alpha) * s_old s_old = s return s อย่างไรก็ตามฉันจะคำนวณ SD ที่เกี่ยวข้องได้อย่างไร

4
การพยากรณ์อนุกรมเวลา R ด้วยเครือข่ายประสาทเทียม auto.arima และ ets
ฉันได้ยินมาบ้างเกี่ยวกับการใช้โครงข่ายประสาทเทียมในการทำนายอนุกรมเวลา ฉันจะเปรียบเทียบวิธีการพยากรณ์อนุกรมเวลาของฉัน (ข้อมูลการค้าปลีกรายวัน) ได้ดีกว่า: auto.arima (x), ets (x) หรือ nnetar (x) ฉันสามารถเปรียบเทียบ auto.arima กับ ets โดย AIC หรือ BIC แต่ฉันจะเปรียบเทียบกับเครือข่ายประสาทได้อย่างไร ตัวอย่างเช่น: > dput(x) c(1774, 1706, 1288, 1276, 2350, 1821, 1712, 1654, 1680, 1451, 1275, 2140, 1747, 1749, 1770, 1797, 1485, 1299, 2330, 1822, 1627, 1847, 1797, 1452, 1328, 2363, 1998, …

1
ทำไม Anova () และ drop1 () จึงให้คำตอบที่แตกต่างกันสำหรับ GLMM
ฉันมีแบบฟอร์ม GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) เมื่อฉันใช้drop1(model, test="Chi")ฉันได้รับผลลัพธ์ที่แตกต่างกว่าถ้าผมใช้จากแพคเกจรถหรือAnova(model, type="III") summary(model)สองหลังนี้ให้คำตอบเดียวกัน จากการใช้ข้อมูลที่ประดิษฐ์ขึ้นมาฉันพบว่าทั้งสองวิธีปกติไม่แตกต่างกัน พวกเขาให้คำตอบเดียวกันสำหรับแบบจำลองเชิงเส้นที่มีความสมดุลแบบจำลองเชิงเส้นที่ไม่สมดุล (ซึ่งไม่เท่ากันในกลุ่มต่าง ๆ ) และสำหรับแบบจำลองเชิงเส้นที่สมดุลแบบทั่วไป ดังนั้นจึงปรากฏว่าเฉพาะในกรณีที่มีการรวมปัจจัยแบบสุ่มเข้าด้วยกัน ทำไมจึงมีความคลาดเคลื่อนระหว่างสองวิธีนี้? เมื่อใช้ GLMM ควรAnova()หรือdrop1()จะใช้งานอย่างไร ความแตกต่างระหว่างสองสิ่งนี้ค่อนข้างเล็กน้อยอย่างน้อยสำหรับข้อมูลของฉัน มันมีความสำคัญต่อการใช้งานหรือไม่?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.