คำถามติดแท็ก pca

การวิเคราะห์องค์ประกอบหลัก (PCA) เป็นเทคนิคการลดขนาดเชิงเส้น จะช่วยลดชุดข้อมูลหลายตัวแปรให้เป็นชุดเล็ก ๆ ของตัวแปรที่สร้างขึ้นรักษาข้อมูลให้มากที่สุดเท่าที่จะเป็นไปได้ ตัวแปรเหล่านี้เรียกว่าองค์ประกอบหลักคือการรวมกันเชิงเส้นของตัวแปรอินพุต

1
ทำไมฟังก์ชั่น R 'princomp' และ 'prcomp' ให้ค่าลักษณะที่แตกต่างกัน
คุณสามารถใช้ชุดข้อมูล Decathlon {FactoMineR} ในการทำซ้ำนี้ คำถามคือเหตุผลที่ค่าลักษณะเฉพาะที่คำนวณแตกต่างจากเมทริกซ์ความแปรปรวนร่วม นี่คือค่าลักษณะเฉพาะที่ใช้princomp: > library(FactoMineR);data(decathlon) > pr <- princomp(decathlon[1:10], cor=F) > pr$sd^2 Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 1.348073e+02 2.293556e+01 9.747263e+00 1.117215e+00 3.477705e-01 1.326819e-01 Comp.7 Comp.8 Comp.9 Comp.10 6.208630e-02 4.938498e-02 2.504308e-02 4.908785e-03 และเช่นเดียวกันโดยใช้PCA: > res<-PCA(decathlon[1:10], scale.unit=FALSE, ncp=5, graph = FALSE) > res$eig eigenvalue percentage of variance cumulative …
22 r  pca 

2
PCA สามารถใช้กับข้อมูลอนุกรมเวลาได้หรือไม่
ฉันเข้าใจว่าการวิเคราะห์องค์ประกอบหลัก (PCA) สามารถนำไปใช้โดยทั่วไปสำหรับข้อมูลหน้าตัด PCA สามารถใช้สำหรับข้อมูลอนุกรมเวลาได้อย่างมีประสิทธิภาพโดยการระบุปีเป็นตัวแปรอนุกรมเวลาและใช้ PCA ตามปกติหรือไม่ ฉันพบว่าไดนามิก PCA ทำงานกับข้อมูลพาเนลและการเข้ารหัสใน Stata ได้รับการออกแบบสำหรับข้อมูลพาเนลไม่ใช่อนุกรมเวลา PCA ประเภทใดที่ใช้งานกับข้อมูลอนุกรมเวลาได้หรือไม่ ปรับปรุง ให้ฉันอธิบายอย่างละเอียด ปัจจุบันฉันกำลังสร้างดัชนีสำหรับโครงสร้างพื้นฐานในอินเดียด้วยตัวแปรเช่นความยาวถนนความยาวเส้นทางรถไฟความจุการผลิตไฟฟ้าจำนวนผู้ใช้โทรศัพท์ ฯลฯ ฉันมี 12 ตัวแปรตลอด 22 ปีสำหรับ 1 ประเทศ แม้ว่าฉันจะตรวจสอบเอกสารที่ใช้ PCA ในอนุกรมเวลาและแม้แต่ข้อมูลพาเนล PCA ถูกออกแบบมาสำหรับข้อมูลแบบตัดขวางซึ่งถือว่าสมมติฐานของ iid ข้อมูลพาเนลและข้อมูลส่วนตัดละเมิดและ PCA ไม่คำนึงถึงมิติของอนุกรมเวลาในนั้น ฉันเห็นว่ามีการใช้ PCA แบบไดนามิกบนข้อมูลแผงเท่านั้น ฉันต้องการที่จะรู้ว่ามี PCA เฉพาะที่ใช้กับอนุกรมเวลาหรือใช้สแตติก PCA กับปีที่กำหนดเป็นตัวแปรอนุกรมเวลาจะทำงานหรือไม่
22 time-series  pca 

2
ขีด จำกัด ของ "หน่วยความแปรปรวน" ตัวประมาณการถดถอยของสันเมื่อ
พิจารณาสันถดถอยด้วยข้อ จำกัด เพิ่มเติมที่มีผลรวมของหน่วยสแควร์ส (เทียบเท่าความแปรปรวนของหน่วย); หากจำเป็นเราสามารถสันนิษฐานได้ว่ามีผลรวมของหน่วยกำลังสองเช่นกัน: Yy^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. ขีด จำกัด ของβ^∗λβ^λ∗\hat{\boldsymbol\beta}_\lambda^*เมื่อλ→∞λ→∞\lambda\to\inftyคืออะไร? นี่คือข้อความบางส่วนที่ฉันเชื่อว่าเป็นจริง: เมื่อλ=0λ=0\lambda=0มีวิธีแก้ไขที่ชัดเจน: ใช้ตัวประมาณ OLS β^0=(X⊤X)−1X⊤yβ^0=(X⊤X)−1X⊤y\hat{\boldsymbol\beta}_0=(\mathbf X^\top \mathbf X)^{-1}\mathbf X^\top \mathbf yและทำให้เป็นมาตรฐานเพื่อสนองข้อ จำกัด (เราสามารถเห็นสิ่งนี้ได้โดยการเพิ่มตัวคูณและสร้างความแตกต่างของ Lagrange): β^∗0=β^0/∥Xβ^0∥.β^0∗=β^0/‖Xβ^0‖.\hat{\boldsymbol\beta}_0^* = \hat{\boldsymbol\beta}_0 \big/ \|\mathbf X\hat{\boldsymbol\beta}_0\|. โดยทั่วไปการแก้ปัญหาคือβ^∗λ=((1+μ)X⊤X+λI)−1X⊤ywith μ needed to satisfy the …

3
PCA เมื่อขนาดข้อมูลมากกว่าจำนวนตัวอย่าง
ฉันเจอสถานการณ์ที่ฉันมี 10 สัญญาณ / คนสำหรับ 10 คน (ตัวอย่าง 100 ตัวอย่าง) ที่มีจุดข้อมูล 14,000 (มิติ) ที่ฉันต้องผ่านไปยังตัวจําแนก ฉันต้องการลดขนาดของข้อมูลนี้และ PCA น่าจะเป็นวิธีที่ทำได้ อย่างไรก็ตามฉันสามารถค้นหาตัวอย่างของ PCA ที่มีจำนวนตัวอย่างมากกว่าจำนวนมิติเท่านั้น ฉันใช้แอปพลิเคชัน PCA ที่ค้นหาพีซีที่ใช้ SVD เมื่อฉันผ่านชุดข้อมูล 100x14000 ชุดของฉันมี 101 ชิ้นที่ส่งคืนดังนั้นขนาดส่วนใหญ่จะถูกมองข้ามอย่างชัดเจน โปรแกรมระบุว่าพีซี 6 เครื่องแรกมีความแปรปรวน 90% เป็นสมมติฐานที่สมเหตุสมผลหรือไม่ว่าพีซี 101 เครื่องเหล่านี้มีความแปรปรวนทั้งหมดและขนาดที่เหลืออยู่นั้นไม่สามารถละเลยได้? หนึ่งในเอกสารที่ฉันได้อ่านอ้างว่าด้วยชุดข้อมูลที่คล้ายกัน (แต่คุณภาพต่ำกว่าเล็กน้อย) กว่าของฉันพวกเขาสามารถลดขนาด 4500 มิติลงเหลือ 80 เก็บข้อมูล 96% ของข้อมูลต้นฉบับ คลื่นกระดาษผ่านรายละเอียดของเทคนิค PCA ที่ใช้มีเพียง 3100 ตัวอย่างเท่านั้นและฉันมีเหตุผลที่จะเชื่อว่าตัวอย่างน้อยกว่าที่ใช้ในการปฏิบัติ …

3
ความสัมพันธ์แปลก ๆ ในผลลัพธ์ SVD ของข้อมูลแบบสุ่ม พวกเขามีคำอธิบายทางคณิตศาสตร์หรือเป็นข้อบกพร่อง LAPACK?
ฉันสังเกตพฤติกรรมที่แปลกประหลาดมากในผลลัพธ์ SVD ของข้อมูลแบบสุ่มซึ่งฉันสามารถทำซ้ำได้ทั้งใน Matlab และ R ดูเหมือนว่าปัญหาตัวเลขในห้องสมุด LAPACK ใช่ไหม? ผมวาดn=1000n=1000n=1000ตัวอย่างจากk=2k=2k=2มิติแบบเกาส์กับศูนย์เฉลี่ยและเอกลักษณ์ของความแปรปรวน: X∼N(0,I)X∼N(0,I)X\sim \mathcal N (0, \mathbf I) ) ฉันรวบรวมพวกเขาใน1000×21000×21000 \times 2 Data Matrix XXX\mathbf X(ฉันสามารถเลือกศูนย์XX\mathbf Xหรือไม่ก็ไม่ได้มีผลต่อการต่อไป.) แล้วฉันจะดำเนินการสลายตัวมูลค่าเอกพจน์ (SVD) เพื่อให้ได้X=USV⊤X=USV⊤\mathbf X=\mathbf{USV}^\top ⊤ ลองหาองค์ประกอบสองอย่างของUU\mathbf Uเช่นU11U11U_{11}และและขอให้สิ่งที่เป็นความสัมพันธ์ระหว่างพวกเขาข้ามที่แตกต่างกันดึงของX ผมจะคาดหวังว่าถ้าจำนวน N R อีพีของดึงมีขนาดใหญ่พอสมควรแล้วทั้งหมดความสัมพันธ์ดังกล่าวควรจะเป็นรอบศูนย์ (เช่นความสัมพันธ์ของประชากรควรจะเป็นศูนย์และความสัมพันธ์ของกลุ่มตัวอย่างจะมีขนาดเล็ก)U22U22U_{22}XX\mathbf XNrepNrepN_\mathrm{rep} แต่ผมสังเกตเห็นบางความสัมพันธ์ที่แข็งแกร่งวิจิตรพิสดาร (ประมาณ ) ระหว่างU 11 , U 12 , U 21และU 22และเฉพาะระหว่างองค์ประกอบเหล่านี้ …

4
ฟังก์ชั่นการวิเคราะห์องค์ประกอบหลัก (FPCA): มันเกี่ยวกับอะไร?
ฟังก์ชั่นการวิเคราะห์องค์ประกอบหลัก (FPCA) เป็นสิ่งที่ฉันสะดุดและไม่เคยเข้าใจ มันเกี่ยวกับอะไร? ดูที่"การสำรวจการวิเคราะห์องค์ประกอบหลักของการทำงาน" โดย Shang, 2011และฉันอ้างถึง: PCA ประสบปัญหาร้ายแรงในการวิเคราะห์ข้อมูลการใช้งานเพราะ“ คำสาปของมิติ” (Bellman 1961) "การสาปแช่งของมิติ" มาจากข้อมูล sparsity ในพื้นที่มิติสูง แม้ว่าคุณสมบัติทางเรขาคณิตของ PCA จะยังคงใช้งานได้และแม้ว่าเทคนิคเชิงตัวเลขจะให้ผลลัพธ์ที่คงที่ แต่เมทริกซ์ความแปรปรวนร่วมตัวอย่างก็เป็นค่าประมาณที่ไม่ดีของเมทริกซ์ความแปรปรวนร่วมของประชากร เพื่อที่จะเอาชนะความยากลำบากนี้ FPCA ได้เตรียมวิธีที่ให้ข้อมูลในการตรวจสอบโครงสร้างความแปรปรวนร่วมตัวอย่างมากกว่า PCA [... ] ฉันแค่ไม่เข้าใจ บทความนี้อธิบายถึงข้อเสียเปรียบอะไร PCA ไม่ควรจะเป็นวิธีที่ดีที่สุดในการจัดการสถานการณ์เช่น "คำสาปแห่งมิติ"?

2
PCA แบบ numpy และ sklearn ให้ผลลัพธ์ที่ต่างกัน
ฉันเข้าใจผิดบางอย่าง นี่คือรหัสของฉัน ใช้ sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) เอาท์พุท: array([[ -4.25324997e+03, -8.41288672e-01, -8.37858943e-03], [ 2.97275001e+03, -1.25977271e-01, 1.82476780e-01], …

4
วิธีการฉายเวกเตอร์ใหม่บนพื้นที่ PCA?
หลังจากทำการวิเคราะห์องค์ประกอบหลัก (PCA) ฉันต้องการฉายเวกเตอร์ใหม่ลงบนพื้นที่ PCA (เช่นค้นหาพิกัดในระบบพิกัด PCA) ผมได้คำนวณ PCA ในภาษา R prcompโดยใช้ ตอนนี้ฉันควรคูณเวกเตอร์ของฉันด้วยเมทริกซ์การหมุน PCA ควรจัดองค์ประกอบหลักในเมทริกซ์นี้เป็นแถวหรือคอลัมน์?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

1
“ เอฟเฟ็กต์เกือกม้า” และ / หรือ“ เอฟเฟ็กต์โค้ง” ในการวิเคราะห์ PCA / การโต้ตอบคืออะไร
มีเทคนิคมากมายในสถิติทางนิเวศวิทยาสำหรับการวิเคราะห์ข้อมูลเชิงสำรวจของข้อมูลหลายมิติ สิ่งเหล่านี้เรียกว่าเทคนิค 'การบวช' หลายคนเหมือนหรือใกล้เคียงกับเทคนิคทั่วไปในที่อื่น ๆ ในสถิติ บางทีตัวอย่างต้นแบบอาจเป็นการวิเคราะห์ส่วนประกอบหลัก (PCA) นักนิเวศวิทยาอาจใช้ PCA และเทคนิคที่เกี่ยวข้องเพื่อสำรวจ 'การไล่ระดับสี' (ฉันไม่ชัดเจนเลยว่าการไล่ระดับสีคืออะไร แต่ฉันอ่านเรื่องนี้มาเล็กน้อย) ในหน้านี้รายการสุดท้ายภายใต้การวิเคราะห์ส่วนประกอบหลัก (PCA)อ่าน: PCA มีปัญหาร้ายแรงสำหรับข้อมูลพืช: ผลของเกือกม้า เรื่องนี้เกิดจากความโค้งของการกระจายพันธุ์ตามการไล่สี เนื่องจากสปีชีส์การตอบสนองของสปีชีส์นั้นโดยทั่วไปจะมีรูปแบบเดียว เพิ่มเติมหน้าลงไปภายใต้การวิเคราะห์สารบรรณหรือค่าเฉลี่ยซึ่งกันและกัน (RA)มันหมายถึง "ผลกระทบอาร์ค": RA มีปัญหา: เอฟเฟกต์ส่วนโค้ง มันเกิดจากความไม่เชิงเส้นของการแจกแจงตามการไล่ระดับสี ส่วนโค้งนั้นไม่รุนแรงเท่าผลเกือกม้าของ PCA เนื่องจากปลายของการไล่ระดับสีไม่ได้ซับซ้อน มีคนอธิบายเรื่องนี้ได้ไหม ฉันเพิ่งเห็นปรากฏการณ์นี้ในแปลงที่เป็นตัวแทนของข้อมูลในพื้นที่มิติที่ต่ำกว่า (ได้แก่ การวิเคราะห์การติดต่อและการวิเคราะห์ปัจจัย) "การไล่ระดับสี" จะตรงกับอะไรมากกว่าปกติ (เช่นในบริบทที่ไม่ใช่เชิงนิเวศน์)? หากสิ่งนี้เกิดขึ้นกับข้อมูลของคุณมันเป็น "ปัญหา" ("ปัญหาร้ายแรง") หรือไม่ เพื่ออะไร? เราควรตีความเอาต์พุตที่เกือกม้า / โค้งแสดงขึ้นได้อย่างไร? ต้องใช้วิธีการรักษาหรือไม่? อะไร? การแปลงข้อมูลดั้งเดิมจะช่วยได้หรือไม่? จะเป็นอย่างไรถ้าข้อมูลนั้นเป็นอันดับเรตติ้ง …

2
มีข้อได้เปรียบของ SVD บน PCA หรือไม่?
ฉันรู้วิธีการคำนวณ PCA และ SVD ทางคณิตศาสตร์และฉันรู้ว่าทั้งสองสามารถนำไปใช้กับการถดถอยเชิงเส้นสแควร์น้อยที่สุด ข้อได้เปรียบหลักของ SVD ในทางคณิตศาสตร์ดูเหมือนว่าสามารถนำไปใช้กับเมทริกซ์ที่ไม่ได้เป็นแบบสแควร์ได้ ทั้งสองมุ่งเน้นไปที่การสลายตัวของเมทริกซ์นอกเหนือจากข้อได้เปรียบของ SVD ที่กล่าวมามีข้อได้เปรียบหรือข้อมูลเชิงลึกเพิ่มเติมใด ๆ จากการใช้ SVD ผ่าน PCA หรือไม่X⊤XX⊤XX^\top X ฉันกำลังมองหาสัญชาตญาณมากกว่าความแตกต่างทางคณิตศาสตร์
20 pca  least-squares  svd 

2
วิธีการคำนวณคะแนนปัจจัยและเมทริกซ์ "สัมประสิทธิ์คะแนน" ในการวิเคราะห์ PCA หรือปัจจัยคืออะไร
ตามความเข้าใจของฉันใน PCA ตามสหสัมพันธ์เราได้รับการโหลด (= องค์ประกอบหลักในตัวอย่างนี้) ซึ่งไม่ได้มีอะไรนอกจากความสัมพันธ์ระหว่างตัวแปรและปัจจัย ตอนนี้เมื่อฉันต้องการสร้างคะแนนตัวประกอบใน SPSS ฉันสามารถรับคะแนนตัวประกอบของผู้ตอบแต่ละคนสำหรับแต่ละปัจจัยได้โดยตรง ฉันยังสังเกตเห็นว่าถ้าฉันคูณ " เมทริกซ์สัมประสิทธิ์คะแนนองค์ประกอบ " (ที่ผลิตโดย SPSS) ด้วยตัวแปรดั้งเดิมมาตรฐานฉันจะได้รับคะแนนปัจจัยเดียวกับที่ได้รับจาก SPSS ใครช่วยกรุณาช่วยฉันเข้าใจว่า "เมทริกซ์สัมประสิทธิ์คะแนนองค์ประกอบ" หรือ "เมทริกซ์สัมประสิทธิ์คะแนนปัจจัย" - ซึ่งฉันสามารถคำนวณปัจจัยหรือคะแนนองค์ประกอบ - คำนวณได้อย่างไร วิธีการที่แตกต่างกันของคะแนนปัจจัยการคำนวณแตกต่างกันในเมทริกซ์นี้อย่างไร

6
PCA ของข้อมูลที่ไม่ใช่แบบเกาส์
ฉันมีคำถามสองสามข้อเกี่ยวกับ PCA: PCA คิดว่าชุดข้อมูลเป็น Gaussian หรือไม่ จะเกิดอะไรขึ้นเมื่อฉันใช้ PCA กับข้อมูลที่ไม่ใช่เชิงเส้นโดยเนื้อแท้ ให้ชุดข้อมูลกระบวนการคือการทำให้ค่าเฉลี่ย - ปกติแรกตั้งค่าความแปรปรวนเป็น 1 รับ SVD ลดอันดับและสุดท้ายแมปชุดข้อมูลลงในพื้นที่ลดอันดับใหม่ ในพื้นที่ใหม่แต่ละมิติสอดคล้องกับ "ทิศทาง" ของความแปรปรวนสูงสุด แต่ความสัมพันธ์ของชุดข้อมูลนั้นในพื้นที่ใหม่เป็นศูนย์เสมอหรือเป็นจริงสำหรับข้อมูลที่เป็นแบบเกาส์โดยเนื้อแท้ สมมติว่าฉันมีชุดข้อมูลสองชุดคือ "A" และ "B" โดยที่ "A" ตรงกับจุดสุ่มตัวอย่างที่นำมาจาก Gaussian ในขณะที่ "B" ตรงกับจุดสุ่มตัวอย่างจากการแจกแจงแบบอื่น (พูดปัวซอง) PCA (A) เปรียบเทียบกับ PCA (B) อย่างไร โดยการดูที่จุดในพื้นที่ใหม่ฉันจะพิจารณาได้อย่างไรว่า PCA (A) ตรงกับจุดที่สุ่มตัวอย่างจาก Gaussian ในขณะที่ PCA (B) ตรงกับจุดที่สุ่มตัวอย่างจาก Poisson ความสัมพันธ์ของคะแนนใน "A" …
20 pca  svd 

3
ฉันได้รับการโหลดที่“ น่ากลัว” ใน rollapply PCA ใน R. ฉันจะแก้ไขได้ไหม?
ฉันมีข้อมูลส่งคืน 10 ปีต่อวันสำหรับ 28 สกุลเงินที่แตกต่างกัน ฉันต้องการแยกส่วนประกอบหลักตัวแรก แต่แทนที่จะใช้งาน PCA ตลอดทั้ง 10 ปีฉันต้องการเปิดหน้าต่างใหม่ 2 ปีเพราะพฤติกรรมของสกุลเงินมีวิวัฒนาการและฉันต้องการสะท้อนสิ่งนี้ อย่างไรก็ตามฉันมีปัญหาที่สำคัญนั่นคือทั้งฟังก์ชั่น princomp () และ prcomp () มักจะกระโดดจากการโหลดเชิงบวกถึงเชิงลบในการวิเคราะห์ PCA ที่อยู่ติดกัน (เช่น 1 วันห่างกัน) ดูแผนภูมิการโหลดสำหรับสกุลเงิน EUR: เห็นได้ชัดว่าฉันไม่สามารถใช้สิ่งนี้ได้เพราะการโหลดที่อยู่ติดกันจะกระโดดจากบวกเป็นลบดังนั้นซีรี่ส์ของฉันที่ใช้มันจะผิดพลาด ตอนนี้มาดูค่าสัมบูรณ์ของการโหลดสกุลเงิน EUR: ปัญหาคือแน่นอนว่าฉันยังไม่สามารถใช้สิ่งนี้ได้เพราะคุณสามารถเห็นได้จากแผนภูมิด้านบนว่าการโหลดนั้นไปจากเชิงลบเป็นบวกและย้อนกลับไปในบางครั้งซึ่งเป็นลักษณะที่ฉันต้องรักษาไว้ มีวิธีใดบ้างที่ฉันสามารถแก้ไขปัญหานี้ได้ ฉันสามารถบังคับให้การปฐมนิเทศ eigenvector เหมือนกันใน PCAs ที่อยู่ติดกันได้หรือไม่ โดยวิธีการที่ปัญหานี้เกิดขึ้นกับฟังก์ชั่น FactoMineR () รหัสสำหรับ rollapply อยู่ที่นี่: rollapply(retmat, windowl, function(x) summary(princomp(x))$loadings[, 1], by.column = …
20 r  pca 

4
ค่าที่ถูกต้องสำหรับความแม่นยำและการเรียกคืนในกรณีขอบคืออะไร?
ความแม่นยำหมายถึง: p = true positives / (true positives + false positives) มันถูกต้องหรือไม่ที่ในฐานะtrue positivesและfalse positivesวิธีที่ 0 ความแม่นยำเข้าใกล้ 1? คำถามเดียวกันสำหรับการเรียกคืน: r = true positives / (true positives + false negatives) ขณะนี้ฉันกำลังใช้การทดสอบทางสถิติที่ฉันต้องการคำนวณค่าเหล่านี้และบางครั้งมันก็เกิดขึ้นที่ตัวส่วนเป็น 0 และฉันสงสัยว่าจะคืนค่าใดให้กับกรณีนี้ PS: ขอโทษแท็กที่ไม่เหมาะสมผมอยากจะใช้recall, precisionและlimitแต่ฉันไม่สามารถสร้างแท็กใหม่ ๆ
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

1
ในการศึกษาความสัมพันธ์ทั่วทั้งจีโนมส่วนประกอบหลักคืออะไร?
ในการศึกษาความสัมพันธ์ทั่วทั้งจีโนม (GWAS): องค์ประกอบหลักคืออะไร? ทำไมถึงใช้ พวกเขาคำนวณอย่างไร สามารถทำการศึกษาความสัมพันธ์ทั่วทั้งจีโนมโดยไม่ต้องใช้ PCA ได้หรือไม่?
20 pca  genetics  gwas 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.