ค่าสเกลในการวิเคราะห์ discriminant เชิงเส้น (LDA) สามารถนำมาใช้เพื่อพล็อตตัวแปรอธิบายบน discriminants เชิงเส้นได้หรือไม่


11

การใช้ biplot ของค่าที่ได้จากการวิเคราะห์องค์ประกอบหลักเป็นไปได้ที่จะสำรวจตัวแปรอธิบายที่ประกอบกันเป็นองค์ประกอบหลัก นี่เป็นไปได้ไหมกับการวิเคราะห์จำแนกเชิงเส้น?

ตัวอย่างที่มีให้ใช้ข้อมูลคือ "ข้อมูล Iris Data ของ Edgar Anderson" ( http://en.wikipedia.org/wiki/Iris_flower_data_set ) นี่คือข้อมูลม่านตา :

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

ตัวอย่าง PCA biplot โดยใช้ชุดข้อมูล iris ใน R (รหัสด้านล่าง):

ป้อนคำอธิบายรูปภาพที่นี่

รูปนี้แสดงให้เห็นว่าความยาวของกลีบดอกไม้และความกว้างของกลีบดอกไม้มีความสำคัญในการกำหนดคะแนน PC1 และในการแยกแยะระหว่างกลุ่มสายพันธุ์ setosa มีกลีบดอกขนาดเล็กและกลีบเลี้ยงกว้าง

เห็นได้ชัดว่าข้อสรุปที่คล้ายกันสามารถดึงออกมาจากการวางแผนผลการวิเคราะห์เชิงเส้นแยกประเภทแม้ว่าฉันไม่แน่ใจว่าพล็อต LDA แสดงถึงอะไรดังนั้นคำถาม แกนคือ discriminants เชิงเส้นสองอันแรก (LD1 99% และ LD2 1% ของการติดตาม) พิกัดของเวกเตอร์สีแดงคือ "สัมประสิทธิ์ของการจำแนกเชิงเส้น" ยังอธิบายว่า "การขยาย" (lda.fit $ การปรับขนาด: เมทริกซ์ที่แปลงการสังเกตการทำงานของพินิจพิเคราะห์เป็นมาตรฐานเพื่อให้ภายในกลุ่มความแปรปรวนเมทริกซ์ "ปรับ" จะถูกคำนวณเป็นและdiag(1/f1, , p) f1 is sqrt(diag(var(x - group.means[g, ])))ข้อมูลสามารถถูกฉายลงบน discriminants เชิงเส้น (โดยใช้ guess.lda) (รหัสด้านล่างดังที่แสดงhttps://stackoverflow.com/a/17240647/742447) ข้อมูลและตัวแปรตัวทำนายถูกพล็อตเข้าด้วยกันเพื่อให้สปีชีส์ถูกกำหนดโดยการเพิ่มขึ้นของตัวแปรตัวทำนายที่สามารถเห็นได้ (เช่นเดียวกับ PCA biplots ปกติและ PCA biplot ด้านบน):

ตัวอย่าง LDA biplot โดยใช้ชุดข้อมูล iris ใน R

จากพล็อตนี้ความกว้างของ Sepal ความกว้างของ Petal และ Petal Length ล้วนมีส่วนทำให้ระดับ LD1 ใกล้เคียงกัน อย่างที่คาดหวัง setosa ดูเหมือนกลีบดอกที่เล็กกว่าและกลีบเลี้ยงกว้าง

ไม่มีวิธีในการพล็อต biplots ดังกล่าวจาก LDA ใน R และการสนทนาบางส่วนของออนไลน์นี้ซึ่งทำให้ฉันระวังวิธีนี้

พล็อต LDA นี้ (ดูรหัสด้านล่าง) ให้การตีความที่ถูกต้องทางสถิติของคะแนนการปรับขนาดตัวแปรทำนายหรือไม่?

รหัสสำหรับ PCA:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

รหัสสำหรับ LDA

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

ผลลัพธ์ของ LDA มีดังนี้

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088

ฉันไม่สามารถติดตามรหัสของคุณ (ฉันไม่ใช่ผู้ใช้ R และฉันต้องการดูข้อมูลจริงและค่าผลลัพธ์มากกว่าภาพที่ไม่ได้อธิบายและรหัสที่ไม่ได้อธิบาย) ขออภัย พล็อตของคุณแปลงอะไร? พิกัดเวกเตอร์สีแดงคืออะไร - น้ำหนักถอยหลังของ latents หรือตัวแปร? คุณทำอะไรพล็อตรวมทั้งข้อมูล poins สำหรับ? คือdiscriminant predictor variable scaling scoresอะไร - คำที่ดูเหมือนจะไม่ธรรมดาและแปลก
ttnphns

@ttnphns: ขอบคุณสำหรับการแนะนำการปรับปรุงคำถามซึ่งตอนนี้สะท้อนให้เห็นในคำถาม
Etienne Low-Décarie

predictor variable scaling scoresผมก็ยังไม่ทราบว่าเป็น อาจจะ "คะแนนแบ่งแยก"? อย่างไรก็ตามฉันได้เพิ่มคำตอบที่คุณอาจสนใจ
ttnphns

คำตอบ:


7

การวิเคราะห์องค์ประกอบหลักเชิงเส้นและผลการวิเคราะห์จำแนก ; ข้อมูลม่านตา

ฉันจะไม่วาด biplots เพราะ biplots สามารถวาดด้วยการปรับมาตรฐานต่าง ๆ และดังนั้นอาจดูแตกต่างกัน เนื่องจากฉันไม่ใช่Rผู้ใช้ฉันมีปัญหาในการติดตามว่าคุณสร้างแปลงอย่างไรเพื่อทำซ้ำ แต่ฉันจะทำ PCA และ LDA และแสดงผลลัพธ์ในลักษณะที่คล้ายกับสิ่งนี้ (คุณอาจต้องการอ่าน) การวิเคราะห์ทั้งสองทำใน SPSS

องค์ประกอบหลักของข้อมูลม่านตา :

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

สิ่งสำคัญคือต้องเน้นว่ามันเป็นภาระไม่ใช่ eigenvector ซึ่งโดยทั่วไปแล้วเราจะตีความองค์ประกอบหลัก (หรือปัจจัยในการวิเคราะห์ปัจจัย) - ถ้าเราจำเป็นต้องตีความ loadings มีค่าสัมประสิทธิ์ regressional ของการสร้างแบบจำลองตัวแปรโดยส่วนประกอบมาตรฐาน ในเวลาเดียวกันเนื่องจากส่วนประกอบไม่ได้มีความสัมพันธ์กันพวกเขาเป็นพันธมิตรร่วมระหว่างองค์ประกอบดังกล่าวและตัวแปร การโหลดแบบมาตรฐาน (ลดขนาด) เช่นความสัมพันธ์ต้องไม่เกิน 1 และสะดวกกว่าในการตีความเพราะผลกระทบของความแปรปรวนที่ไม่เท่ากันของตัวแปรจะถูกนำออกไป

มันเป็นภาระไม่ใช่ eigenvectors ที่มักจะปรากฏบนbiplotเคียงข้างกันด้วยคะแนนองค์ประกอบ; หลังมักจะแสดงคอลัมน์ - ปกติ


การจำแนกเชิงเส้นของข้อมูลม่านตา :

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

เกี่ยวกับการคำนวณที่สกัดจากดิสคริมิแนนต์ใน LDA โปรดดูที่นี่ เราตีความการจำแนกโดยทั่วไปโดยค่าสัมประสิทธิ์การจำแนกหรือสัมประสิทธิ์การเลือกปฏิบัติมาตรฐาน (หลังมีประโยชน์มากขึ้นเพราะความแปรปรวนแตกต่างในตัวแปรถูกถอดออก) เหมือนใน PCA แต่หมายเหตุ: ค่าสัมประสิทธิ์ที่นี่คือสัมประสิทธิ์การถดถอยของการสร้างแบบจำลองจำแนกโดยตัวแปรไม่ใช่ในทางกลับกันเหมือนใน PCA เนื่องจากตัวแปรไม่ได้มีความสัมพันธ์กันจึงไม่สามารถมองเห็นค่าสัมประสิทธิ์ได้ว่าเป็นความแปรปรวนร่วมระหว่างตัวแปรและการเลือกปฏิบัติ

แต่เรามีเมทริกซ์อื่นซึ่งอาจใช้เป็นแหล่งข้อมูลทางเลือกในการตีความของพินิจพิเคราะห์ - รวมกลุ่มภายในสหสัมพันธ์ระหว่างพินิจพิเคราะห์และตัวแปร เนื่องจากการเลือกปฏิบัติไม่เกี่ยวข้องเช่นพีซีเมทริกซ์นี้จึงมีความคล้ายคลึงกับการโหลดมาตรฐานของ PCA

ในขณะที่ใน PCA เรามีเมทริกซ์เพียงตัวเดียว - การโหลด - เพื่อช่วยแปลความหมายของ latents ใน LDA เรามีเมทริกซ์ทางเลือกสองตัวสำหรับสิ่งนั้น ถ้าคุณต้องการพล็อต (biplot หรืออะไรก็ตาม) คุณต้องตัดสินใจว่าจะพล็อตสัมประสิทธิ์หรือสหสัมพันธ์

และแน่นอนว่าไม่จำเป็นต้องเตือนว่าใน PCA ของข้อมูลม่านตาส่วนประกอบไม่ "รู้" ว่ามี 3 คลาส; พวกเขาไม่สามารถคาดได้ว่าจะแยกแยะชั้นเรียน Discriminants ทำ "รู้" มีคลาสและมันเป็นงานตามธรรมชาติของพวกเขาซึ่งจะแยกแยะ


ดังนั้นฉันจึงสามารถพล็อตหลังจากการปรับตามอำเภอใจทั้ง "สัมประสิทธิ์พหุนามมาตรฐาน" หรือ "รวมกลุ่มภายในกลุ่มระหว่างตัวแปรและพินิจพิเคราะห์" ในแกนเดียวกันกับ "คะแนนจำแนก" เพื่อตีความผลลัพธ์ในสองวิธีที่แตกต่างกันอย่างไร ในคำถามของฉันฉันได้วางแผน "สัมประสิทธิ์ discriminant discriminant" บนแกนเดียวกันกับ "คะแนน discriminant"
Etienne Low-Décarie

1
@Etienne ฉันเพิ่มรายละเอียดที่คุณถามไปที่ด้านล่างของคำตอบนี้stats.stackexchange.com/a/48859/3277 ขอบคุณสำหรับความเอื้ออาทรของคุณ
ttnphns

1
@TLJ ควรเป็น: ระหว่างตัวแปรและส่วนประกอบมาตรฐาน ฉันใส่คำเข้าไป โปรดดูที่นี่ : Loadings are the coefficients to predict...เช่นเดียวกับที่นี่ : [Footnote: The components' values...]. โหลดเป็นค่าสัมประสิทธิ์ในการคำนวณตัวแปรจากส่วนประกอบมาตรฐานและมุมฉากโดยอาศัยอำนาจการโหลดคือความแปรปรวนร่วมระหว่างสิ่งเหล่านี้กับสิ่งเหล่านั้น
ttnphns

1
@TLJ, "เหล่านี้และเหล่านั้น" = ตัวแปรและส่วนประกอบ คุณบอกว่าคุณคำนวณคะแนนองค์ประกอบแบบดิบ สร้างมาตรฐานให้แต่ละองค์ประกอบเป็นความแปรปรวน = 1 คำนวณค่าความแปรปรวนร่วมระหว่างตัวแปรและส่วนประกอบ นั่นจะเป็นภาระ "Standardized" หรือ "rescaled" การโหลดคือการโหลดหารด้วย st ความเบี่ยงเบนของตัวแปรที่เกี่ยวข้อง
ttnphns

1
กำลังโหลดกำลังสองคือส่วนแบ่งของความแปรปรวนของตัวแปรที่คิดโดยองค์ประกอบ
ttnphns

4

ความเข้าใจของฉันคือ biplots ของการวิเคราะห์จำแนกเชิงเส้นสามารถทำได้มันถูกนำมาใช้ในความเป็นจริงในแพคเกจ R ggbiplotและggordและฟังก์ชั่นอื่นที่จะทำมันถูกโพสต์ในกระทู้ StackOverflowนี้

นอกจากนี้หนังสือ "Biplots ในทางปฏิบัติ" โดย M. Greenacre มีหนึ่งบท (บทที่ 11, ดู pdf ) ที่อยู่ในรูปที่ 11.5 มันแสดง biplot ของการวิเคราะห์จำแนกเชิงเส้นตรงของชุดข้อมูลม่านตา: ป้อนคำอธิบายรูปภาพที่นี่


ที่จริงหนังสือทั้งสามารถใช้ได้อย่างอิสระออนไลน์ (PDF หนึ่งต่อบท) นี่multivariatestatistics.org/biplots.html
อะมีบา

Aha ไม่จำเป็นต้องหลบเว็บไซต์ขอบคุณแม้แต่น้อย!
Tom Wenseleers

2

ฉันรู้ว่าสิ่งนี้ถูกถามในช่วงหนึ่งปีที่ผ่านมาและ ttnphns ให้คำตอบที่ยอดเยี่ยมและในเชิงลึก แต่ฉันคิดว่าฉันจะเพิ่มความคิดเห็นสองสามข้อสำหรับผู้ที่ (เช่นฉัน) ที่สนใจ PCA และ LDA สำหรับประโยชน์เชิงนิเวศวิทยา วิทยาศาสตร์ แต่มีพื้นหลังทางสถิติที่ จำกัด (ไม่ใช่นักสถิติ)

พีซีใน PCA เป็นการรวมกันเชิงเส้นของตัวแปรดั้งเดิมที่อธิบายความแปรปรวนทั้งหมดในชุดข้อมูลหลายมิติตามลำดับ คุณจะมีพีซีมากเท่าที่คุณทำตัวแปรดั้งเดิม ร้อยละของความแปรปรวนที่พีซีอธิบายนั้นได้มาจากค่าลักษณะเฉพาะของเมทริกซ์ความคล้ายคลึงกันที่ใช้และค่าสัมประสิทธิ์สำหรับตัวแปรดั้งเดิมแต่ละตัวบนพีซีใหม่แต่ละเครื่องนั้นได้รับจาก eigenvectors PCA ไม่มีสมมติฐานเกี่ยวกับกลุ่ม PCA นั้นดีมากสำหรับการดูว่าตัวแปรหลายตัวเปลี่ยนแปลงมูลค่าของข้อมูลของคุณอย่างไร (ตัวอย่างเช่น biplot) การตีความ PCA นั้นอาศัย biplot เป็นอย่างมาก

LDA นั้นแตกต่างกันด้วยเหตุผลที่สำคัญมาก - มันสร้างตัวแปรใหม่ (LDs) โดยเพิ่มความแปรปรวนระหว่างกลุ่มให้ได้มากที่สุด สิ่งเหล่านี้ยังคงเป็นการรวมกันเชิงเส้นของตัวแปรดั้งเดิม แต่แทนที่จะอธิบายความแปรปรวนมากที่สุดเท่าที่จะเป็นไปได้กับแต่ละลำดับ LD แทนพวกเขาจะถูกดึงเพื่อเพิ่มความแตกต่างระหว่างกลุ่มตามตัวแปรใหม่ แทนที่จะเป็นเมทริกซ์ความคล้ายคลึงกัน LDA (และ MANOVA) ใช้เมทริกซ์การเปรียบเทียบระหว่างและภายในกลุ่มเป็นผลรวมของกำลังสองและผลิตภัณฑ์ข้าม eigenvectors ของเมทริกซ์นี้ - ค่าสัมประสิทธิ์ที่ OP นั้นเกี่ยวข้องกับ - อธิบายว่าตัวแปรดั้งเดิมมีส่วนช่วยในการก่อตัวของ LDs ใหม่เท่าใด

ด้วยเหตุผลเหล่านี้ eigenvectors จาก PCA จะทำให้คุณมีความคิดที่ดีขึ้นว่าตัวแปรเปลี่ยนแปลงค่าในระบบคลาวด์ข้อมูลของคุณอย่างไรและความสำคัญต่อความแปรปรวนทั้งหมดในชุดข้อมูลของคุณมากกว่า LDA อย่างไรก็ตาม LDA โดยเฉพาะอย่างยิ่งเมื่อใช้ร่วมกับ MANOVA จะให้คุณทดสอบทางสถิติของความแตกต่างใน centroid หลายตัวแปรของกลุ่มของคุณและการประเมินข้อผิดพลาดในการจัดสรรคะแนนให้กับกลุ่มของพวกเขา (ในแง่ขนาดผลหลายตัวแปร) ใน LDA แม้ว่าตัวแปรจะเปลี่ยนแปลงแบบเชิงเส้น (และอย่างมีนัยสำคัญ) ข้ามกลุ่มสัมประสิทธิ์ของมันใน LD อาจไม่บ่งบอกถึง "สเกล" ของผลกระทบนั้นและขึ้นอยู่กับตัวแปรอื่น ๆ ที่รวมอยู่ในการวิเคราะห์

ฉันหวังว่าชัดเจน ขอบคุณที่สละเวลา. ดูภาพด้านล่าง ...

พีซีและแอลดีนั้นถูกสร้างขึ้นแตกต่างกันและค่าสัมประสิทธิ์สำหรับแอลดีอาจไม่ทำให้คุณเข้าใจถึงความแตกต่างของตัวแปรดั้งเดิมในชุดข้อมูลของคุณ


ทั้งหมดนี้ถูกต้องและ +1 จากฉัน แต่ฉันไม่แน่ใจว่าคำตอบของคุณตอบคำถามต้นฉบับซึ่งเฉพาะเจาะจงมากเกี่ยวกับวิธีการวาด LDA biplot
อะมีบา

ฉันคิดว่าคุณพูดถูก - ฉันตอบกลับสิ่งนี้ส่วนใหญ่ "การใช้ biplot ของค่าที่ได้รับจากการวิเคราะห์องค์ประกอบหลักนั้นเป็นไปได้ที่จะสำรวจตัวแปรอธิบายที่ประกอบกันเป็นองค์ประกอบหลักแต่ละตัว " - และคำตอบคือใช่ แต่ความหมายแตกต่างกันมากตามที่อธิบายไว้ข้างต้น ... ขอบคุณสำหรับความคิดเห็นและ +1!
danno
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.