คำถามติดแท็ก r

ใช้แท็กนี้สำหรับคำถาม * on-topic * ที่ (a) เกี่ยวข้องกับ `R` ไม่ว่าจะเป็นส่วนสำคัญของคำถามหรือคำตอบที่คาดหวัง & (b) ไม่ใช่เพียงแค่ * เกี่ยวกับวิธีการใช้` R '

1
ความแตกต่างระหว่าง AIC () และ extractAIC () ใน R คืออะไร?
เอกสาร R สำหรับทั้งไม่ส่องแสงมาก สิ่งที่ฉันได้รับจากลิงค์นี้คือการใช้อย่างใดอย่างหนึ่งควรจะดี สิ่งที่ฉันไม่ได้รับคือทำไมพวกเขาไม่เท่ากัน ความจริง: ฟังก์ชั่นแบบขั้นตอนการถดถอยในการวิจัย, การใช้งานstep()extractAIC() ที่น่าสนใจการทำงานlm()รูปแบบและglm()'null' รุ่น (เฉพาะตัด) ในชุดข้อมูล 'mtcars ของ R ให้ผลลัพธ์ที่แตกต่างกันสำหรับและAICextractAIC() > null.glm = glm(mtcars$mpg~1) > null.lm = lm(mtcars$mpg~1) > AIC(null.glm) [1] 208.7555 > AIC(null.lm) [1] 208.7555 > extractAIC(null.glm) [1] 1.0000 208.7555 > extractAIC(null.lm) [1] 1.0000 115.9434 เป็นเรื่องแปลกเพราะทั้งสองรุ่นข้างต้นเหมือนกันและAIC()ให้ผลลัพธ์ที่เหมือนกันสำหรับทั้งคู่ ทุกคนสามารถโยนแสงในปัญหาหรือไม่

2
การติดตั้งการถดถอยเชิงเส้นหลายเส้นใน R: เศษเหลือที่เกี่ยวข้องโดยอัตโนมัติ
ฉันพยายามประเมินการถดถอยเชิงเส้นแบบหลายค่าใน R ด้วยสมการดังนี้ regr <- lm(rate ~ constant + askings + questions + 0) askings askings <- ts(...)และคำถามที่มีข้อมูลอนุกรมเวลารายไตรมาสสร้างด้วย ปัญหาตอนนี้คือฉันได้รับส่วนที่เหลือโดยอัตโนมัติ ฉันรู้ว่าเป็นไปได้ที่จะปรับให้พอดีกับการถดถอยโดยใช้ฟังก์ชัน gls แต่ฉันไม่รู้วิธีระบุโครงสร้างข้อผิดพลาด AR หรือ ARMA ที่ถูกต้องซึ่งฉันต้องนำไปใช้ในฟังก์ชัน gls ฉันจะลองประเมินอีกครั้งในตอนนี้ด้วย gls(rate ~ constant + askings + questions + 0, correlation=corARMA(p=?,q=?)) แต่น่าเสียดายที่ฉันไม่ใช่ผู้เชี่ยวชาญ R หรือผู้เชี่ยวชาญทางสถิติโดยทั่วไปในการระบุ p และ q ฉันจะพอใจถ้ามีคนให้คำแนะนำที่เป็นประโยชน์กับฉัน ขอบคุณล่วงหน้า! โจ

1
ป่าสุ่มและน้ำหนักของชั้นเรียน
คำถามในประโยคเดียว: มีใครรู้วิธีกำหนดน้ำหนักชั้นดีสำหรับป่าสุ่มหรือไม่ คำอธิบาย: ฉันกำลังเล่นกับชุดข้อมูลที่ไม่สมดุล ฉันต้องการใช้RแพคเกจrandomForestเพื่อฝึกอบรมโมเดลบนชุดข้อมูลที่เบ้มากโดยมีตัวอย่างบวกเพียงเล็กน้อยและตัวอย่างเชิงลบจำนวนมาก ฉันรู้ว่ามีวิธีการอื่น ๆ และในที่สุดฉันจะใช้ประโยชน์จากพวกเขา แต่ด้วยเหตุผลทางเทคนิคการสร้างป่าสุ่มเป็นขั้นตอนกลาง classwtดังนั้นผมจึงเล่นรอบกับพารามิเตอร์ ฉันกำลังตั้งค่าชุดข้อมูลเทียมจำนวน 5,000 ตัวอย่างในแผ่นดิสก์ที่มีรัศมี 2 และจากนั้นฉันสุ่มตัวอย่างบวก 100 ตัวอย่างในแผ่นดิสก์ที่มีรัศมี 1 สิ่งที่ฉันสงสัยคือ 1) ถ้าไม่มีคลาสที่มีน้ำหนักโมเดลจะกลายเป็น 'เสื่อม' เช่นคาดการณ์FALSEทุกที่ 2) ด้วยการถ่วงน้ำหนักชั้นเรียนที่เป็นธรรมฉันจะเห็น 'จุดสีเขียว' ที่อยู่ตรงกลางนั่นคือมันจะทำนายแผ่นดิสก์ด้วยรัศมี 1 ราวกับว่าTRUEมีตัวอย่างเชิงลบ นี่คือข้อมูลที่มีลักษณะ: นี่คือสิ่งที่เกิดขึ้นโดยไม่ต้องถ่วงน้ำหนัก: (การโทรคือrandomForest(x = train[, .(x,y)],y = as.factor(train$z),ntree = 50):) สำหรับการตรวจสอบฉันได้ลองสิ่งที่เกิดขึ้นเมื่อฉันสร้างสมดุลของชุดข้อมูลอย่างรุนแรงโดยการสุ่มตัวอย่างชั้นลบเพื่อให้ความสัมพันธ์เป็น 1: 1 อีกครั้ง สิ่งนี้ให้ผลลัพธ์ที่คาดหวัง: อย่างไรก็ตามเมื่อฉันคำนวณแบบจำลองที่มีน้ำหนักคลาส 'FALSE' = 1, 'TRUE' = …
11 r  random-forest 

1
ขัดขวางแบบเบย์และแผ่นเปรียบเทียบกับวิธีการลงโทษ
ฉันกำลังอ่านสไลด์ของ Steven Scott เกี่ยวกับแพ็คเกจ BSTS R (คุณสามารถค้นหาได้ที่นี่: สไลด์ ) เมื่อถึงจุดหนึ่งเมื่อพูดถึงการรวมถึง regressors จำนวนมากในโมเดลอนุกรมเวลาเชิงโครงสร้างเขาได้แนะนำค่าสัมประสิทธิ์การถดถอยและสแลบพื้นและบอกว่าพวกเขาดีกว่าเมื่อเทียบกับวิธีการลงโทษ Scott กล่าวซึ่งอ้างถึงตัวอย่างของชุดข้อมูลที่มีตัวทำนาย 100 ตัว: วิธีการลงโทษจะทำการตัดสินใจเพียงครั้งเดียวว่าตัวแปรใดที่จะถูกรวม / แยกออกซึ่งหมายความว่าพวกเขาจะเลือกเซตย่อยของตัวทำนายหนึ่งตัวอย่างเช่นแบบจำลองหนึ่งในเป็นไปได้2 100210021002^{100} "นักบวช Lasso (และที่เกี่ยวข้อง) ไม่กระจัดกระจายพวกเขาชักนำ sparsity ที่โหมด แต่ไม่ได้อยู่ในการกระจายหลัง" เมื่อมาถึงจุดนี้เขาแนะนำ Spike และ Slab Priors ฉันคิดว่าฉันได้รับปรีชาญาณ แต่ฉันต้องการให้แน่ใจว่า: พวกเขาดีขึ้นหรือไม่ในแง่ที่ว่าพวกเขาใช้วิธีการทดสอบแบบบังคับกำลังอันโหดร้ายในการทดสอบแต่ละชุดย่อยของ regressors ข้อเสียเปรียบคือเวลาในการคำนวณใช่หรือไม่? คุณคิดว่าเขาหมายถึงอะไรเมื่อพูดว่า "Lasso (และที่เกี่ยวข้อง) ... แต่ไม่ได้อยู่ในการกระจายหลัง"

3
อะไรคือข้อได้เปรียบของเครื่องกำเนิดไฟฟ้าแบบเอกซ์โพเนนเชียลแบบสุ่มโดยใช้วิธีของ Ahrens และ Dieter (1972) แทนที่จะใช้การแปลงผกผัน?
คำถามของฉันเป็นแรงบันดาลใจR 's rexp()ในตัวเครื่องกำเนิดไฟฟ้าจำนวนสุ่มชี้แจงฟังก์ชั่น เมื่อพยายามที่จะสร้างการกระจายชี้แจงตัวเลขสุ่มตำราหลายแนะนำผกผันเปลี่ยนวิธีการตามที่ระบุไว้ในหน้านี้วิกิพีเดีย ฉันรู้ว่ามีวิธีการอื่นเพื่อให้งานนี้สำเร็จ โดยเฉพาะอย่างยิ่งR 's รหัสที่มาใช้วิธีการที่ระบุไว้ในกระดาษโดย Ahrens & หิวโหย (1972) ฉันมั่นใจว่าวิธี Ahrens-Dieter (AD) นั้นถูกต้อง ยังฉันไม่เห็นประโยชน์ของการใช้วิธีการของพวกเขาเมื่อเทียบกับวิธีการแปลงผกผัน (IT) โฆษณาไม่เพียง แต่ซับซ้อนในการติดตั้งมากกว่าไอที ดูเหมือนจะไม่ได้รับประโยชน์ความเร็วอย่างใดอย่างหนึ่ง นี่คือรหัสRของฉันที่จะเปรียบเทียบทั้งสองวิธีแล้วตามด้วยผลลัพธ์ invTrans <- function(n) -log(runif(n)) print("For the inverse transform:") print(system.time(invTrans(1e8))) print("For the Ahrens-Dieter algorithm:") print(system.time(rexp(1e8))) ผล: [1] "For the inverse transform:" user system elapsed 4.227 0.266 4.597 [1] "For …

1
การเลือกรูปแบบ Mclust
แพ็คเกจ R mclustใช้ BIC เป็นเกณฑ์สำหรับการเลือกรูปแบบคลัสเตอร์ จากความเข้าใจของฉันควรเลือกรุ่นที่มี BIC ต่ำที่สุดเหนือรุ่นอื่น ๆ (ถ้าคุณสนใจเฉพาะ BIC เท่านั้น) อย่างไรก็ตามเมื่อค่า BIC เป็นลบทั้งหมดMclustฟังก์ชันจะใช้ค่าเริ่มต้นเป็นแบบจำลองที่มีค่า BIC สูงสุด เข้าใจโดยรวมของฉันจากการทดลองต่างๆที่mclustระบุ "ดีที่สุด" รุ่นที่เป็นผู้ที่มี\}max{BICi}max{BICi}max\{BIC_i\} ฉันพยายามที่จะเข้าใจว่าทำไมผู้เขียนตัดสินใจนี้ มันแสดงให้เห็นในเว็บไซต์ CRAN: https://cran.r-project.org/web/packages/mclust/vignettes/mclust.html นอกจากนี้ผู้เขียนของmclustบรรจุภัณฑ์ยังจดบันทึกสิ่งนี้ไว้ในวิธีการจำแนกประเภทแบบจำลองโดยใช้กระดาษ: การใช้ซอฟต์แวร์ mclust ในเคมีประยุกต์ในหน้า 5 โมเดล 'ที่ดีที่สุด' นั้นถูกนำมาใช้เป็นรุ่นที่มี BIC สูงที่สุดในบรรดารุ่นที่ติดตั้งไว้ ทุกคนสามารถเปล่งแสงในปัญหานี้ได้หรือไม่? ถ้า BIC ที่ต่ำกว่าดีกว่าอยู่เสมอทำไมผู้เขียนถึงไม่เลือกรุ่นที่มี BIC ต่ำสุด แต่แทนที่จะเป็นรุ่นที่มี BIC ที่เล็กที่สุด? ถ้าเป็นไปได้ให้อ้างอิง

3
ฉันควรใช้การชดเชยสำหรับ Poisson GLM ของฉันหรือไม่
ฉันกำลังทำการวิจัยเพื่อดูความแตกต่างของความหนาแน่นของปลาและความร่ำรวยของสายพันธุ์ปลาเมื่อใช้วิธีการสำรวจสำมะโนประชากรด้วยภาพใต้น้ำสองวิธี เดิมข้อมูลของฉันถูกนับข้อมูล แต่โดยทั่วไปแล้วนี่จะเปลี่ยนเป็นความหนาแน่นของปลา แต่ฉันยังคงตัดสินใจใช้ Poisson GLM ซึ่งฉันหวังว่าถูกต้อง model1 <- glm(g_den ~ method + site + depth, poisson) ตัวแปรทำนาย 3 ตัวของฉันคือวิธีเว็บไซต์และความลึกซึ่งฉันสั่งเป็นปัจจัยเมื่อฉันป้อนพวกเขา ตัวแปรการตอบสนองของฉันคือความอุดมสมบูรณ์ของปลากะรัง, ความหนาแน่นของปลาเก๋าและเหมือนกันสำหรับกลุ่มปลาอื่น ๆ ฉันทราบว่าความหนาแน่นไม่ใช่จำนวนเต็มและเป็นข้อมูลตัวเลขเช่น 1.34849 ตอนนี้ฉันได้รับข้อผิดพลาดนี้: In dpois(y, mu, log = TRUE) : non-integer x = 0.037500 ฉันอ่านมาแล้วหลายคนแนะนำให้ใช้การชดเชยนี่เป็นสิ่งที่แนะนำให้ทำมากที่สุดหรือไม่?

1
วิธีการตีความผลลัพธ์ของรุ่น TBATS และการวิเคราะห์แบบจำลอง
ฉันได้รับข้อมูลความต้องการรายครึ่งชั่วโมงซึ่งเป็นช่วงเวลาตามฤดูกาล ฉันใช้tbatsในforecastแพ็คเกจใน R และได้ผลลัพธ์ดังนี้: TBATS(1, {5,4}, 0.838, {<48,6>, <336,6>, <17520,5>}) หมายความว่าชุดข้อมูลไม่จำเป็นต้องใช้การแปลง Box-Cox หรือไม่และมีข้อผิดพลาดคือ ARMA (5, 4) และคำ 6, 6 และ 5 ใช้เพื่ออธิบายฤดูกาล พารามิเตอร์ที่ทำให้ชื้นคือ 0.8383 หมายความว่ามันคือการแปลงด้วยหรือไม่ ต่อไปนี้เป็นพล็อตการสลายตัวของรุ่น: ฉันสงสัยว่าจะทำอย่างไรlevelและslopeบอกเกี่ยวกับตัวแบบ 'ความชัน' บอกแนวโน้ม แต่จะเป็นlevelอย่างไร วิธีการรับพล็อตที่ชัดเจนสำหรับsession 1และsession 2ซึ่งเป็นฤดูกาลรายวันและรายสัปดาห์ตามลำดับ ฉันยังต้องรู้วิธีการวินิจฉัยแบบจำลองtbatsเพื่อประเมินโมเดลยกเว้นค่า RMSE วิธีปกติคือการตรวจสอบว่าข้อผิดพลาดเป็นสัญญาณรบกวนสีขาว แต่ที่นี่ข้อผิดพลาดควรจะเป็นซีรีส์ ARMA ฉันพล็อตข้อผิดพลาด 'acf' และ 'pacf' และฉันไม่คิดว่ามันจะดูเหมือน ARMA (5,4) หมายความว่าแบบจำลองของฉันไม่ดีหรือไม่? acf(resid(model1),lag.max = 1000) pacf(resid(model1),lag.max=1000) …

2
การตีความแบบจำลองค่าเฉลี่ยผลลัพธ์ใน R
ฉันพยายามที่จะเข้าใจและรู้ว่าจะรายงานอะไรจากการวิเคราะห์ข้อมูลบางอย่างของฉันโดยใช้แบบจำลองค่าเฉลี่ยใน R ฉันใช้สคริปต์ต่อไปนี้เพื่อวิเคราะห์ผลกระทบของวิธีการวัดค่าตัวแปรที่กำหนด: นี่คือชุดข้อมูล: https://www.dropbox.com/s/u9un273gzw9o30u/VMT4.csv?dl=0 รูปแบบที่จะติดตั้ง: LM.1 <- gls(VMTf ~ turn+sex+method, na.action="na.fail", method = "ML",VMT4) ขุดแบบเต็ม require(MuMIn) d=dredge(LM.1) print(d) coefficients(d) รับข้อมูลสรุปของทุกรุ่นเพื่อรับค่าประมาณพารามิเตอร์ summary(model.avg(d)) ฉันรู้ว่าแบบจำลองทั้งหมดสามารถเฉลี่ย (ค่าเฉลี่ยเต็มรูปแบบแบบจำลอง) หรือเพียงแค่ส่วนย่อยของพวกเขา (ค่าเฉลี่ยแบบมีเงื่อนไข) ตอนนี้ฉันต้องการทราบว่า: เมื่อใดควรใช้การหาค่าเฉลี่ยแบบเต็มหรือแบบเงื่อนไขเพื่อทำการอนุมาน ฉันควรรายงานเรื่องทั้งหมดนี้สำหรับบทความทางวิทยาศาสตร์อย่างไร หมายความว่าค่า Z และ p ที่เกี่ยวข้องสำหรับสถานการณ์เฉลี่ยแบบจำลองคืออะไร? เพื่อให้ง่ายต่อการมองเห็นคำถามของฉัน นี่คือตารางผลลัพธ์ > summary(model.avg(d))# now, there are effects Call: model.avg(object = d) Component model call: gls(model …

1
มีการแจกแจงจำนวนเท่าไรใน GLM
ฉันได้ระบุสถานที่หลายแห่งในตำราเรียนที่อธิบาย GLM ด้วยการแจกแจง 5 แบบ ได้แก่ (, Gamma, Gaussian, Binomial, Inverse Gaussian, & Poisson) นี่คือสุดขั้วในหน้าที่ของครอบครัวในอาร์ บางครั้งฉันเจอการอ้างอิงถึง GLM ที่มีการแจกแจงเพิ่มเติม ( ตัวอย่าง ) บางคนสามารถอธิบายได้ว่าทำไม 5 เหล่านี้จึงพิเศษหรืออยู่ใน GLM เสมอ แต่บางครั้งคนอื่นก็เป็นเช่นนั้น? จากสิ่งที่ฉันได้เรียนรู้จนถึงตอนนี้การแจกแจง GLM ในตระกูลเอ็กซ์โปเนนเชียลนั้นอยู่ในรูปแบบ: โดยที่คือพารามิเตอร์การกระจายและเป็นพารามิเตอร์ที่ยอมรับf(y;θ,ϕ)=exp{yθ−b(θ)ϕ+c(y,ϕ)}f(y;θ,ϕ)=exp⁡{yθ−b(θ)ϕ+c(y,ϕ)}f(y;\theta,\phi)=\exp\left\{\frac{y\theta-b(\theta)}{\phi}+c(y,\phi)\right\}ϕϕ\phiθθ\theta ไม่สามารถแปลงการกระจายใด ๆ ให้พอดีกับ GLM ได้หรือไม่

3
การจำลองทัศนศึกษาบราวเนียนโดยใช้สะพานบราวเนียน?
ฉันต้องการจำลองกระบวนการทัศนศึกษาแบบบราวเนียน (การเคลื่อนไหวแบบบราวเนียนที่ปรับเงื่อนไขจะเป็นค่าบวกเสมอเมื่อถึงที่ ) เนื่องจากกระบวนการทัศนศึกษา Brownian เป็นสะพาน Brownian ที่มีเงื่อนไขว่าจะเป็นบวกอยู่เสมอฉันจึงหวังที่จะจำลองการเคลื่อนที่ของทัศนศึกษา Brownian โดยใช้สะพาน Brownian0 t = 10<t<10<t<10 \lt t \lt 1000t=1t=1t=1 ใน R ฉันใช้แพ็คเกจ 'e1017' เพื่อจำลองกระบวนการบราวเนียนบริดจ์ ฉันจะใช้กระบวนการบราวน์บราวน์นี้เพื่อสร้างการเดินทางแบบบราวเนียนได้อย่างไร

2
อะไรคือความแตกต่างระหว่างการถดถอยของแนวสันโดยใช้ glmnet ของ R และ Scikit-Learn ของ Python?
ฉันกำลังอ่านส่วน LAB §6.6เกี่ยวกับการถดถอยของสัน / Lasso ในหนังสือ'บทนำสู่การเรียนรู้เชิงสถิติด้วยแอปพลิเคชันใน R'โดย James, Witten, Hastie, Tibshirani (2013) โดยเฉพาะอย่างยิ่งฉันพยายามใช้โมเดล scikit-Learn Ridgeกับชุดข้อมูล 'Hitters' จากแพ็คเกจ R 'ISLR' ฉันสร้างฟีเจอร์ชุดเดียวกันตามที่แสดงในรหัส R แล้ว อย่างไรก็ตามฉันไม่สามารถใกล้เคียงกับผลลัพธ์จากglmnet()โมเดลได้ ฉันเลือกพารามิเตอร์การปรับแต่ง L2 หนึ่งพารามิเตอร์เพื่อทำการเปรียบเทียบ (อาร์กิวเมนต์ 'alpha' ใน scikit เรียนรู้) งูหลาม: regr = Ridge(alpha=11498) regr.fit(X, y) http://nbviewer.ipython.org/github/JWarmenhoven/ISL-python/blob/master/Notebooks/Chapter%206.ipynb R: โปรดทราบว่าการโต้แย้งalpha=0ในglmnet()หมายความว่าโทษ L2 ควรใช้ (Ridge ถดถอย) เอกสารเตือนไม่ให้ป้อนค่าเดียวlambdaแต่ผลลัพธ์จะเหมือนกับใน ISL ซึ่งมีการใช้เวกเตอร์ ridge.mod <- glmnet(x,y,alpha=0,lambda=11498) …

1
การออกแบบตัวแบบผสมเอฟเฟกต์พร้อมตัวแปรสุ่มตัวอย่าง
ฉันพยายามระบุสูตรสำหรับโมเดลเอฟเฟกต์แบบผสมเชิงเส้น (พร้อมlme4) สำหรับการออกแบบการทดลองของฉัน แต่ฉันไม่แน่ใจว่าฉันทำถูกต้องหรือไม่ การออกแบบ: โดยทั่วไปฉันวัดพารามิเตอร์การตอบสนองในพืช ฉันมีการรักษา 4 ระดับและระดับการชลประทาน 2 ระดับ พืชถูกจัดกลุ่มใน 16 แปลงภายในแต่ละแปลงฉันสุ่ม 4 แปลงย่อย ในแต่ละพล็อตย่อยฉันใช้เวลาสังเกตระหว่าง 15 ถึง 30 (ขึ้นอยู่กับจำนวนพืชที่พบ) นั่นคือมีทั้งหมด 1,500 แถว ตอนแรกระดับย่อยเป็นเพียงที่นี่เพื่อจุดประสงค์ในการสุ่มตัวอย่าง แต่ฉันคิดว่าฉันต้องการนำมาพิจารณาในรูปแบบ (เป็นตัวแปรระดับ 64) เพราะฉันเห็นว่ามีความแปรปรวนจำนวนมากจากพล็อตย่อยหนึ่งไปอีก แม้ในพล็อตเดียวกัน (มากกว่าความแปรปรวนระหว่างแปลงทั้งหมด) ความคิดแรกของฉันคือการเขียน: library(lme4) fit <- lmer(y ~ treatment*irrigation + (1|subplot/plot), data=mydata) หรือ fit <- lmer(y ~ treatment*irrigation + (1|subplot) + …

1
ทดสอบโมเดล GLM โดยใช้ค่าศูนย์และค่าเบี่ยงเบนของโมเดล
ฉันสร้างแบบจำลอง glm ใน R และได้ทำการทดสอบโดยใช้กลุ่มการทดสอบและการฝึกอบรมเพื่อให้มั่นใจว่ามันทำงานได้ดี ผลลัพธ์จาก R คือ: Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -2.781e+00 1.677e-02 -165.789 < 2e-16 *** Coeff_A 1.663e-05 5.438e-06 3.059 0.00222 ** log(Coeff_B) 8.925e-01 1.023e-02 87.245 < 2e-16 *** log(Coeff_C) -3.978e-01 7.695e-03 -51.689 < 2e-16 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 …

1
ฉันจะตีความเอาต์พุตลาวาได้อย่างไร
ฉันกำลังพยายามวิเคราะห์องค์ประกอบเชิงยืนยัน (CFA) lavaanโดยใช้ lavaanฉันมีช่วงเวลาที่ยากตีความการส่งออกที่ผลิตโดย ฉันมีรูปแบบง่าย ๆ - 4 ปัจจัยแต่ละรายการได้รับการสนับสนุนจากข้อมูลการสำรวจที่เก็บรวบรวม ปัจจัยที่สอดคล้องกับสิ่งที่วัดได้โดยรายการเท่าที่ดูเหมือนว่าพวกเขาสามารถทำหน้าที่เป็นวัดที่ถูกต้อง โปรดช่วยฉันเข้าใจผลลัพธ์ต่อไปนี้ผลิตโดยlavaan's cfa(): Number of observations 1730 Estimator ML Minimum Function Test Statistic 196.634 Degrees of freedom 21 P-value (Chi-square) 0.000 Model test baseline model: Minimum Function Test Statistic 3957.231 Degrees of freedom 36 P-value 0.000 User model versus baseline model: …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.