คำถามติดแท็ก regression

เทคนิคในการวิเคราะห์ความสัมพันธ์ระหว่างตัวแปร "dependent" และตัวแปร "อิสระ" หนึ่งตัว

1
ค่าที่คาดหวังของ , ค่าสัมประสิทธิ์ของการกำหนดภายใต้สมมติฐานว่าง
ผมอยากรู้เกี่ยวกับคำสั่งที่ทำที่ด้านล่างของหน้าแรกในข้อความนี้ เกี่ยวกับปรับR2adjustedRadjusted2R^2_\mathrm{adjusted} R2adjusted=1−(1−R2)(n−1n−m−1).Radjusted2=1−(1−R2)(n−1n−m−1).R^2_\mathrm{adjusted} =1-(1-R^2)\left({\frac{n-1}{n-m-1}}\right). ข้อความระบุ: ตรรกะของการปรับตัวคือต่อไปนี้: ในการถดถอยพหุคูณสามัญทำนายสุ่มอธิบายในสัดส่วนเฉลี่ย1/(n–1)1/(n–1)1/(n – 1)ของการเปลี่ยนแปลงการตอบสนองเพื่อให้mmmทำนายสุ่มอธิบายกันโดยเฉลี่ยm/(n–1)m/(n–1)m/(n – 1)ความแปรปรวนของการตอบสนอง; ในคำอื่น ๆ ที่คาดว่าค่าตัวของR2R2R^2คือE(R2)=m/(n–1)E(R2)=m/(n–1)\mathbb{E}(R^2) = m/(n – 1)1) การใช้สูตร[ R2adjustedRadjusted2R^2_\mathrm{adjusted} ] กับค่านั้นโดยที่ตัวทำนายทั้งหมดสุ่มเลือกให้R2adjusted=0Radjusted2=0R^2_\mathrm{adjusted} = 0 " นี้น่าจะเป็นแรงจูงใจที่ง่ายมากและ interpretable สำหรับR2adjustedRadjusted2R^2_\mathrm{adjusted}{} อย่างไรก็ตามฉันไม่สามารถระบุได้ว่าE(R2)=1/(n–1)E(R2)=1/(n–1)\mathbb{E}(R^2)=1/(n – 1)สำหรับตัวทำนายแบบสุ่มเดี่ยว (เช่นไม่มีการจับคู่) ใครช่วยชี้ทางฉันให้ถูกทางที่นี่?

4
เบาะแสว่าปัญหาเหมาะสมอย่างยิ่งสำหรับการถดถอยเชิงเส้น
ฉันเรียนรู้การถดถอยเชิงเส้นโดยใช้รู้เบื้องต้นเกี่ยวกับการวิเคราะห์การถดถอยเชิงเส้นโดยอจิกและ Vining ฉันต้องการเลือกโครงการวิเคราะห์ข้อมูล ฉันมีความคิดที่ไร้เดียงสาว่าการถดถอยเชิงเส้นนั้นเหมาะสมเมื่อผู้ต้องสงสัยคนหนึ่งเท่านั้นที่มีความสัมพันธ์เชิงเส้นตรงระหว่างตัวแปรอธิบายและตัวแปรตอบสนอง แต่มีแอพพลิเคชั่นในโลกแห่งความจริงไม่มากนักที่ดูเหมือนจะตรงตามเกณฑ์นี้ แต่การถดถอยเชิงเส้นค่อนข้างแพร่หลาย แง่มุมของโครงการที่นักสถิติที่มีประสบการณ์กำลังคิดอยู่ว่าพวกเขาอยู่ในรองเท้าของฉันหรือไม่โดยมองหาคำถาม + ข้อมูลที่เหมาะสมกับการถดถอยเชิงเส้น

2
แปลปัญหาการเรียนรู้ของเครื่องเป็นกรอบการถดถอย
สมมติว่าฉันมีแผงของการอธิบายตัวแปรสำหรับฉัน= 1 . . N , T = 1 . . Tเช่นเดียวกับเวกเตอร์ของตัวแปรตามผลไบนารีY ฉันที ดังนั้นYจะสังเกตได้เฉพาะในครั้งสุดท้ายTและไม่ใช่ก่อนหน้านี้ กรณีทั่วไปอย่างสมบูรณ์คือการมีหลายX i j tสำหรับj = 1 ... Kสำหรับแต่ละหน่วยiในแต่ละครั้งtXฉันทีXitX_{it}ฉัน= 1 . . ยังไม่มีข้อความi=1...Ni = 1 ... NT = 1 . . Tt=1...Tt = 1 ... TYฉันTYiTY_{iT}YYYTTTXฉันเจทีXijtX_{ijt}j = 1 ... Kj=1...Kj=1...Kผมiitttแต่ขอเน้นที่กรณีเพื่อความกระชับK=1K=1K=1 การใช้งานของคู่ "ไม่สมดุล" มีตัวแปรอธิบายความสัมพันธ์ชั่วคราวเช่น (ราคาหุ้นรายวันเงินปันผลรายไตรมาส), (รายงานสภาพอากาศรายวัน, พายุเฮอริเคนรายปี) หรือ …

3
เหตุใดจึงไม่มีวิธีการพัก (การแยกข้อมูลเป็นการฝึกอบรมและการทดสอบ) ที่ใช้ในสถิติแบบดั้งเดิม
ในห้องเรียนของฉันเกี่ยวกับ data mining วิธี holdout ถูกนำเสนอเป็นวิธีการประเมินประสิทธิภาพของแบบจำลอง อย่างไรก็ตามเมื่อฉันเข้าชั้นเฟิสต์คลาสของฉันในโมเดลเชิงเส้นนี่ไม่ได้ถูกนำมาใช้เป็นวิธีการตรวจสอบความถูกต้องของแบบจำลอง การวิจัยออนไลน์ของฉันยังไม่แสดงจุดแยก เหตุใดจึงไม่ใช้วิธีการพักในสถิติแบบดั้งเดิม

3
การทำความเข้าใจกับพารามิเตอร์ฟังก์ชันของ Gaussian Basis ที่จะใช้ในการถดถอยเชิงเส้น
ฉันต้องการใช้ฟังก์ชันพื้นฐานแบบเกาส์เซียนในการนำการถดถอยเชิงเส้นมาใช้ น่าเสียดายที่ฉันมีปัญหาในการทำความเข้าใจกับพารามิเตอร์สองตัวในฟังก์ชันพื้นฐาน โดยเฉพาะμμ\muและσσσ\sigma ชุดข้อมูลของฉันคือ 10,000 x 31 เมทริกซ์ 10,000 ตัวอย่างและ 31 คุณสมบัติ ฉันได้อ่านแล้วว่า "ฟังก์ชันพื้นฐานแต่ละตัวแปลงเวกเตอร์อินพุต x เป็นค่าสเกลาร์" ดังนั้นฉันถือว่า x เป็น 1 ตัวอย่างดังนั้นเวกเตอร์ 1 x 31 จากที่นี่ฉันสับสน สิ่งที่แน่นอนคือμjμj\mu_jพารามิเตอร์? ฉันได้อ่านแล้วว่าสิ่งนี้ควบคุมตำแหน่งของฟังก์ชันพื้นฐาน ดังนั้นนี่ไม่ใช่ความหมายของบางสิ่ง? ฉันถูกโยนโดยตัวห้อย j ( μμ\muและϕϕ\phi ) นี่ทำให้ฉันคิดว่าแถวที่ j แต่ดูเหมือนจะไม่สมเหตุสมผล เป็นμjμj\mu_jเวกเตอร์? ตอนนี้สำหรับσσ\sigmaว่า "ควบคุมระดับเชิงพื้นที่" มันคืออะไรกันแน่? ฉันเห็นการใช้งานบางอย่างที่ลองใช้ค่าเช่น. 1, .5, 2.5 สำหรับพารามิเตอร์นี้ ค่าเหล่านี้คำนวณอย่างไร ฉันค้นคว้าและมองหาตัวอย่างเพื่อการเรียนรู้ แต่ ณ ตอนนี้ฉันยังไม่พบอะไรเลย …

2
การกระจายแบบปกติ X และ Y มีแนวโน้มที่จะส่งผลให้เกิดการตกค้างแบบกระจายตามปกติหรือไม่
ที่นี่การตีความที่ผิดของสมมติฐานของภาวะปกติในการถดถอยเชิงเส้นถูกกล่าวถึง (ที่ 'ปกติ' หมายถึง X และ / หรือ Y มากกว่าที่เหลือ) และโปสเตอร์ถามว่ามันเป็นไปได้ที่จะมีการกระจาย X และ Y ไม่ปกติ และยังคงมีการกระจายสารตกค้างตามปกติ คำถามของฉันคือ: โดยทั่วไปมีการกระจาย X และ Y มีแนวโน้มที่จะส่งผลให้ส่วนที่เหลือกระจายตามปกติ? มีการโพสต์ที่เกี่ยวข้องมากมาย แต่ฉันไม่เชื่อว่ามีใครถามคำถามนี้โดยเฉพาะ ฉันรู้ว่านี่อาจเป็นจุดที่น่าสนใจหากมีเพียงการถดถอยเพียงครั้งเดียวที่ต้องทำ แต่ก็น้อยลงหากมีการทดสอบหลายครั้ง สมมติว่าฉันมีตัวแปร 100 X ซึ่งทั้งหมดมีความเบ้เหมือนกันและฉันต้องการทดสอบพวกเขาทั้งหมด ถ้าฉันเปลี่ยนพวกมันทั้งหมดเป็นการกระจายตัวแบบปกติมันจะเป็นไปได้ไหมที่ฉันจะมีตัวแปร X น้อยกว่าที่ต้องการการตรวจสอบอีกครั้ง (โดยไม่มีการแปลงที่ต่างกัน / ไม่มีการเปลี่ยนแปลง) เนื่องจากเศษซากที่ไม่กระจายตามปกติ

5
จะทำการใส่ค่าในจุดข้อมูลจำนวนมากได้อย่างไร?
ฉันมีชุดข้อมูลที่มีขนาดใหญ่มากและมีค่าสุ่มประมาณ 5% หายไป ตัวแปรเหล่านี้มีความสัมพันธ์ซึ่งกันและกัน ตัวอย่างชุดข้อมูล R ต่อไปนี้เป็นเพียงตัวอย่างของเล่นที่มีข้อมูลที่สัมพันธ์กันจำลอง set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
เราสามารถสร้างความน่าจะเป็นด้วยการทำนายเป็นช่วง ๆ ได้หรือไม่?
ฉันได้อ่านการอภิปรายที่ยอดเยี่ยมมากมายในเว็บไซต์เกี่ยวกับการตีความช่วงเวลาความเชื่อมั่นและช่วงการคาดการณ์ แต่แนวคิดหนึ่งยังคงทำให้งงงวย: พิจารณากรอบ OLS และเราได้รับรูปแบบการติดตั้งY = X β เราได้รับx ∗และขอให้ทำนายการตอบสนองของมัน เราคำนวณx * T βและเป็นโบนัส, เรายังมีช่วงเวลาที่การคาดการณ์ 95% รอบการคาดการณ์ของเราลาได้รับสูตรสำหรับข้อ จำกัด ของการคาดการณ์ในรูปแบบเชิงเส้น ลองเรียกคำทำนายช่วงเวลา PI นี้ดูy^=Xβ^y^=Xβ^\hat y = X\hat\betax∗x∗x^*x∗Tβ^x∗Tβ^x^{*T}\hat\beta ทีนี้ข้อใดต่อไปนี้ (หรือไม่ใช่) การตีความ PI ที่ถูกต้องคืออะไร? สำหรับโดยเฉพาะอย่างยิ่งY ( x * )อยู่ภายใน PI กับความน่าจะเป็น 95%x∗x∗x^*y(x∗)y(x∗)y(x^*) หากเราได้รับจำนวนมากขั้นตอนนี้ในการคำนวณ PIs จะครอบคลุมการตอบสนองที่แท้จริง 95% ของเวลาxxx จากถ้อยคำของ @ gung ในช่วงการทำนายการถดถอยเชิงเส้นดูเหมือนว่าในอดีตจะเป็นความจริง (แม้ว่าฉันจะตีความการตีความผิดได้เป็นอย่างดี) การตีความที่ 1 …

2
การถดถอยแบบขั้นตอนใน R - ค่า p สำคัญ
p-value ที่สำคัญที่ใช้โดยstep()ฟังก์ชันใน R สำหรับการถดถอยแบบขั้นตอนคืออะไร? ฉันคิดว่ามันคือ 0.15 แต่สมมติฐานของฉันถูกต้อง ฉันจะเปลี่ยนค่า p วิกฤตได้อย่างไร

4
สมมติฐานการกระจายตัวแบบตกค้าง
ทำไมจึงจำเป็นต้องวางสมมุติฐานการกระจายในข้อผิดพลาดเช่น yi=Xβ+ϵiyi=Xβ+ϵiy_i = X\beta + \epsilon_{i}กับϵi∼N(0,σ2)ϵi∼N(0,σ2)\epsilon_{i} \sim \mathcal{N}(0,\sigma^{2}) ) ทำไมไม่เขียน yi=Xβ+ϵiyi=Xβ+ϵiy_i = X\beta + \epsilon_{i}กับyi∼N(Xβ^,σ2)yi∼N(Xβ^,σ2)y_i \sim \mathcal{N}(X\hat{\beta},\sigma^{2}) , ที่ว่าในกรณีใดϵi=yi−y^ϵi=yi−y^\epsilon_i = y_i - \hat{y} Y ฉันเคยเห็นมันเน้นว่าข้อสันนิษฐานของการกระจายสินค้าถูกวางไว้บนข้อผิดพลาดไม่ใช่ข้อมูล แต่ไม่มีคำอธิบาย ฉันไม่เข้าใจความแตกต่างระหว่างสูตรทั้งสองนี้จริงๆ บางแห่งที่ฉันเห็นสมมติฐานการกระจายถูกวางไว้บนข้อมูล (Bayesian lit. ดูเหมือนว่าส่วนใหญ่) แต่เวลาส่วนใหญ่ข้อสันนิษฐานที่วางอยู่บนข้อผิดพลาด เมื่อสร้างแบบจำลองทำไม / ควรเลือกที่จะเริ่มต้นด้วยสมมติฐานหนึ่งหรืออื่น ๆ ?

1
ข้อมูลจากเมทริกซ์ของหมวกสำหรับการถดถอยโลจิสติก
เป็นที่ชัดเจนสำหรับฉันและอธิบายได้ดีในหลาย ๆ ไซต์ข้อมูลที่มีค่าในแนวทแยงของเมทริกซ์หมวกให้การถดถอยเชิงเส้น หมวกเมทริกซ์ของโมเดลการถดถอยแบบโลจิสติกส์นั้นชัดเจนน้อยกว่าสำหรับฉัน มันเหมือนกับข้อมูลที่คุณได้รับจากหมวกเมทริกซ์ที่ใช้การถดถอยเชิงเส้นหรือไม่? นี่คือคำจำกัดความของ hat matrix ที่ฉันพบในหัวข้ออื่นของ CV (ที่มา 1): H=VX(X′VX)−1X′VH=VX(X′VX)−1X′VH=VX ( X'V X)^-1 X' V กับ X เวกเตอร์ของตัวแปรและวีเป็นเส้นทแยงมุมกับเมทริกซ์(π(1−π))−−−−−−−−√(π(1−π))\sqrt{(π(1−π))}(1-π))} มันคือความจริงที่ว่าค่าเฉพาะของเมทริกซ์หมวกของการสังเกตนั้นยังแสดงถึงตำแหน่งของโควาเรียร์ในอวกาศ covariate และไม่มีอะไรเกี่ยวข้องกับค่าผลลัพธ์ของการสังเกตนั้นหรือไม่? นี่เขียนไว้ในหนังสือ "การวิเคราะห์ข้อมูลหมวดหมู่" ของ Agresti: ความสามารถในการสังเกตก็จะยิ่งเพิ่มมากขึ้นเท่านั้น เช่นเดียวกับในการถดถอยสามัญเลเวอเรจจะอยู่ระหว่าง 0 และ 1 และรวมกับจำนวนพารามิเตอร์โมเดล ซึ่งแตกต่างจากการถดถอยทั่วไปค่าหมวกขึ้นอยู่กับความพอดีเช่นเดียวกับแบบจำลองเมทริกซ์และจุดที่มีค่าตัวทำนายที่รุนแรงนั้นไม่จำเป็นต้องใช้ประโยชน์สูง ดังนั้นจากคำจำกัดความนี้ดูเหมือนว่าเราไม่สามารถใช้งานได้เหมือนที่เราใช้ในการถดถอยเชิงเส้นปกติ ที่มา 1: วิธีการคำนวณเมทริกซ์หมวกสำหรับการถดถอยโลจิสติกใน R?

1
การสร้างแบบจำลองเมื่อตัวแปรตามมี "ตัด"
ขออภัยล่วงหน้าหากคำศัพท์ใด ๆ ที่ฉันใช้ไม่ถูกต้อง ฉันยินดีต้อนรับการแก้ไขใด ๆ หากสิ่งที่ฉันอธิบายว่าเป็น "การตัด" ใช้ชื่ออื่นให้แจ้งให้ฉันทราบและฉันสามารถอัปเดตคำถามได้ สถานการณ์ที่ฉันสนใจคือ: คุณมีตัวแปรอิสระและตัวแปรที่ขึ้นอยู่กับเดียว ฉันจะปล่อยให้มันคลุมเครือ แต่สมมติว่ามันค่อนข้างตรงไปตรงมาที่จะได้แบบจำลองการถดถอยที่ดีสำหรับตัวแปรเหล่านี้xx\bf{x}yyy แต่รูปแบบที่คุณกำลังเล็งที่จะสร้างเป็นตัวแปรอิสระและตัวแปรตามที่บางค่าคงที่ในช่วงของปี อย่างเท่าเทียมกันข้อมูลที่คุณมีการเข้าถึงไม่ได้รวมปีเท่านั้นWxx\bf{x}w=min(y,a)w=min(y,a)w = \min(y,a)aaayyyyyywww ตัวอย่างนี้เป็นตัวอย่างที่ค่อนข้างไม่สมจริงหากคุณพยายามทำตัวเป็นแบบอย่างว่าจะมีคนเก็บเงินบำนาญของพวกเขาเป็นเวลากี่ปี ในกรณีนี้xx\bf{x}อาจเป็นข้อมูลที่เกี่ยวข้องเช่นเพศน้ำหนักชั่วโมงการออกกำลังกายต่อสัปดาห์ ฯลฯ ตัวแปร 'พื้นฐาน' yyyจะเป็นอายุขัย อย่างไรก็ตามตัวแปรที่คุณสามารถเข้าถึงได้และพยายามทำนายในแบบจำลองของคุณคือw=min(0,y−r)w=min(0,y−r)w = \min(0, y-r)โดยที่ r คืออายุเกษียณ (สมมติว่ามันเรียบง่ายคงที่) มีวิธีที่ดีในการจัดการกับปัญหานี้ในการสร้างแบบจำลองการถดถอยหรือไม่?

5
Recursive (ออนไลน์) อัลกอริธึมกำลังสองน้อยที่สุดที่ทำให้เป็นมาตรฐาน
ทุกคนสามารถชี้นำฉันไปในทิศทางของอัลกอริทึมแบบออนไลน์ (แบบเรียกซ้ำ) สำหรับการทำให้เป็นมาตรฐาน Tikhonov (กำลังสองน้อยที่สุดเป็นมาตรฐาน) ได้หรือไม่? ในการตั้งค่าออฟไลน์ฉันจะคำนวณβ^=(XTX+λI)−1XTYβ^=(XTX+λI)−1XTY\hat\beta=(X^TX+λI)^{−1}X^TYโดยใช้ชุดข้อมูลดั้งเดิมของฉันซึ่งพบλλλโดยใช้การตรวจสอบความถูกต้องแบบครอส n-fold ใหม่yyyค่าสามารถคาดการณ์ไว้สำหรับให้xxxใช้การ yy=xTβ^y=xTβ^y=x^T\hat\beta ในการตั้งค่าออนไลน์ฉันจะวาดจุดข้อมูลใหม่อย่างต่อเนื่อง ฉันจะอัปเดตβ^β^\hat\betaเมื่อฉันดึงตัวอย่างข้อมูลเพิ่มเติมใหม่โดยไม่ทำการคำนวณใหม่ทั้งหมดในชุดข้อมูลทั้งหมด (ต้นฉบับ + ใหม่)

2
เหตุใดบางคนทดสอบสมมติฐานตัวแบบถดถอยเหมือนกับข้อมูลดิบของพวกเขาและคนอื่น ๆ ทดสอบพวกเขาในส่วนที่เหลือ
ฉันเป็นนักศึกษาปริญญาเอกสาขาจิตวิทยาเชิงทดลองและฉันพยายามอย่างหนักเพื่อพัฒนาทักษะและความรู้เกี่ยวกับวิธีการวิเคราะห์ข้อมูลของฉัน จนกระทั่งปีที่ 5 ของฉันในด้านจิตวิทยาฉันคิดว่ารูปแบบการถดถอย (เช่น ANOVA) ถือว่าเป็นสิ่งต่อไปนี้: ความปกติของข้อมูล ความแปรปรวนเป็นเนื้อเดียวกันสำหรับข้อมูลและอื่น ๆ หลักสูตรระดับปริญญาตรีของฉันทำให้ฉันเชื่อว่าข้อสันนิษฐานนั้นเกี่ยวกับข้อมูล อย่างไรก็ตามในปีที่ 5 ผู้สอนของฉันบางคนขีดเส้นใต้ข้อเท็จจริงที่ว่าข้อสันนิษฐานนั้นเกี่ยวกับข้อผิดพลาด (ประมาณโดยค่าตกค้าง) และไม่ใช่ข้อมูลดิบ เมื่อเร็ว ๆ นี้ฉันกำลังพูดถึงคำถามสมมติฐานกับเพื่อนร่วมงานของฉันบางคนที่ยอมรับว่าพวกเขาค้นพบความสำคัญของการตรวจสอบสมมติฐานเกี่ยวกับส่วนที่เหลือเฉพาะในปีสุดท้ายของมหาวิทยาลัย ถ้าฉันเข้าใจดีโมเดลที่เหมือนการถดถอยจะทำให้ข้อสันนิษฐานผิดพลาด ดังนั้นจึงเหมาะสมที่จะตรวจสอบสมมติฐานเกี่ยวกับส่วนที่เหลือ ถ้าใช่ทำไมบางคนตรวจสอบสมมติฐานเกี่ยวกับข้อมูลดิบ? เป็นเพราะขั้นตอนการตรวจสอบดังกล่าวประมาณว่าเราจะได้อะไรจากการตรวจสอบสิ่งที่เหลืออยู่? ฉันจะขัดจังหวะด้วยความสงสัยเกี่ยวกับปัญหานี้กับบางคนที่มีความรู้ที่แม่นยำกว่าเพื่อนร่วมงานของฉันและฉันฉันขอขอบคุณล่วงหน้าสำหรับคำตอบของคุณ

2
แบบผสมที่มี 1 การสังเกตต่อระดับ
ฉันปรับโมเดลเอฟเฟกต์แบบสุ่มให้เหมาะกับglmerข้อมูลธุรกิจบางอย่าง จุดมุ่งหมายคือการวิเคราะห์ประสิทธิภาพการขายโดยผู้จัดจำหน่ายโดยคำนึงถึงความหลากหลายของภูมิภาค ฉันมีตัวแปรต่อไปนี้: distcode: รหัสผู้จำหน่ายที่มีประมาณ 800 ระดับ region: รหัสทางภูมิศาสตร์ระดับบนสุด (เหนือ, ใต้, ตะวันออก, ตะวันตก) zone: ภูมิศาสตร์ระดับกลางซ้อนกันภายในregionประมาณ 30 ระดับในทุกระดับ territory: ภูมิศาสตร์ระดับต่ำซ้อนกันภายในzoneประมาณ 150 ระดับ ผู้จัดจำหน่ายแต่ละรายดำเนินงานในพื้นที่เดียวเท่านั้น ส่วนที่ยุ่งยากคือการสรุปข้อมูลพร้อมจุดข้อมูลหนึ่งจุดต่อผู้จัดจำหน่าย ดังนั้นฉันจึงมี 800 จุดข้อมูลและฉันพยายามปรับให้พอดี (อย่างน้อย) พารามิเตอร์ 800 ถึงแม้ว่าจะเป็นแบบธรรมดา ฉันได้ติดตั้งโมเดลดังนี้: glmer(ninv ~ 1 + (1|region/zone/territory) + (1|distcode), family=poisson) สิ่งนี้จะทำงานโดยไม่มีปัญหาแม้ว่าจะพิมพ์บันทึกย่อ: จำนวนระดับของปัจจัยการจัดกลุ่มสำหรับเอฟเฟกต์แบบสุ่มเท่ากับ n จำนวนการสังเกต นี่เป็นสิ่งที่ควรทำใช่ไหม ฉันได้รับการประมาณค่าสัมประสิทธิ์ทั้งหมดและ AIC ก็ไม่สมเหตุสมผล ถ้าฉันลองปัวซอง GLMM ด้วยลิงก์ตัวตน …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.