若数据集变量过多,其中的交互关系可能很复杂。主成分分析和因子分析是两种用来探索和简化多变量复杂关系的常用方法,它们之间有联系也有区别。

image-20220504155047610

主成分分析(Principal Component Analysis,PCA),是一种数据降维技巧,能够将大量的相关变量转化为一组很少的不相关变量,即主成分。例如,使用 PCA 将 30 个相关的环境变量(可能冗余)转化为 5 个无关的成分变量,并且尽可能地保留原始数据集的信息。

主成分是对原始变量重新进行线性组合,将原先众多的,具有一定相关性的指标,重新组合为一组新的,相互独立的综合指标。PCA 的目标是用一组较少的独立变量代替大量相关变量,同时尽可能保留初始变量的信息,这些推到所得的变量称主成分,它们是观测变量的线性组合。如第一主成分为:

PC1=a1X1=a2X2+...+akXkPC_1=a_1X_1=a_2X_2+...+a_kX_k

PC1PC_1kk 个观测变量的加权组合,对初始变量集的方差解释性最大。同理第二组成份PC2PC_2 也是初始变量的线性组合,但对方差的解释性排第二,同时与PC1PC_1 不相关。变量线性组合的权重由最大化各主成分的方差解释度来确定。其余的主成分以此类推,每一个主成分都最大化它对方差的解释程度,同时与其他所有主成分都不相关。因此理论上,可以选择和初始变量数相同的主成分,但并不实用。

R 中自带 princomp()factanal() 函数可以进行 PCA 和 EFA,但功能比较简单。一般使用 psych 包中的函数代替。

image-20220504155902402

主成分分析流程

主成分分析和因子分析的流程类似:

  1. 数据预处理:可以输入原始数据或相关系数矩阵,若输入初始数据,函数会自动计算相关系数矩阵
  2. 选择分析模型:判断是 PCA(数据降维)还是 EFA(潜在结构),若选择 EFA,还需要选择一种估计因子模型的方法
  3. 判断主成分/因子个数
  4. 选择主成分/因子
  5. 旋转主成分/因子
  6. 解释结果
  7. 计算主成分/因子得分

判断主成分个数

如何判断 PCA 中需要多少个主成分?以下是一些准则:

  • 根据先验经验和理论知识判断个数
  • 根据要解释变量方差的积累值的阈值来判断个数
  • 通过检查变量间k×kk × k 的相关系数矩阵来判断个数

最常见的是基于特征值的方法。每个主成分都与相关系数矩阵的特征值相关联,第一主成分与最大的特征值相关联,第二主成分与第二大的特征值相关联,以此类推。Kaiser-harris 准则建议保留特征值大于 1 的主成分,特征值小于1的成分所解释的方差比包含在单个变量中的方差更少。Cattell 碎石检验则绘制了特征值与主成分数的图形。这类图形可以清晰地展示图形弯曲状况,在图形变化最大处之上的主成分都可保留。最后,还可以进行模拟,依据与初始矩阵相同大小的随机数据矩阵来判断要提取的特征值。若基于真实数据的某个特征值大于一组随机数据矩阵相应的平均特征值,那么该主成分可以保留。该方法称作平行分析。

利用 fa.parallel() 函数,可以同时对三种特征值判别准则进行评价,即 Kaiser-harris 准则、Cattell 碎石检验和平行分析。函数用法如下:

1
fa.parallel(x, n.obs=NULL, fm="minres", fa="both", nfactors=1, n.iter=20)

提取主成分

使用 principal() 函数可以根据原始数据矩阵或相关系数矩阵做主成分分析。函数用法如下:

1
principal(r, nfactors=, rotate=, scores=)

其中:

  • r:相关系数矩阵或原始数据矩阵
  • nfactors:设定主成分数(默认为 1 )
  • rotate:指定旋转的方法(默认 varimax 最大方差旋转)
  • scores:设定是否需要计算主成分得分(默认不需要)

主成分旋转

旋转是一系列将成分载荷阵变得更容易解释的数学方法,它们尽可能地对成分去噪。旋转方法有两种:

  1. 正交旋转:使选择的成分保持不相关
  2. 斜交旋转:使选择的成分变得相关

旋转方法也会依据去噪定义的不同而不同。最流行的正交旋转是方差极大旋转,它试图对载荷阵的列进行去噪,使得每个成分只是由一组有限的变量来解释(即载荷阵每列只有少数几个很大的载荷,其他都是很小的载荷)。

获得主成分得分

我们的最终目标是用一组较少的变量替换一组较多的相关变量,因此,还需要获取每个观测在成分上的得分。

实例

例 1:USJudgeRatings

psych 包中的 USAJudgeRatings 数据集包含了律师对美国高等法院法官的评分,包含 43 个观测,12 个变量。就可以使用 PCA 对这 12 个变量进行分析,提取出主成分。

1
2
3
4
5
6
7
install.packages('psych')
library(psych)
head(USJudgeRatings, n=3)
# CONT INTG DMNR DILG CFMG DECI PREP FAMI ORAL WRIT PHYS RTEN
# AARONSON,L.H. 5.7 7.9 7.7 7.3 7.1 7.4 7.1 7.1 7.1 7.0 8.3 7.8
# ALEXANDER,J.M. 6.8 8.9 8.8 8.5 7.8 8.1 8.0 8.0 7.8 7.9 8.5 8.7
# ARMENTANO,A.J. 7.2 8.1 7.8 7.8 7.5 7.6 7.5 7.5 7.3 7.4 7.9 7.8

确定主成分个数

1
2
fa.parallel(USJudgeRatings, fa='pc', n.iter = 100)
principal(USJudgeRatings, nfactors = 1, rotate = 'none', scores = F)

结果如下

平行分析结果

线段为基于观测特征值的碎石检验,虚线为根据 100 个随机数矩阵推导出来的特征值均值。三者均表明,只需保留一个主成分即可。

提取主成分

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
pc <- principal(USJudgeRatings, nfactors = 1)
pc
# Principal Components Analysis
# Call: principal(r = USJudgeRatings, nfactors = 1)
# Standardized loadings (pattern matrix) based upon correlation matrix
# PC1 h2 u2 com
# CONT -0.01 9.6e-05 0.9999 1
# INTG 0.92 8.4e-01 0.1563 1
# DMNR 0.91 8.3e-01 0.1660 1
# DILG 0.97 9.4e-01 0.0613 1
# CFMG 0.96 9.3e-01 0.0723 1
# DECI 0.96 9.2e-01 0.0764 1
# PREP 0.98 9.7e-01 0.0299 1
# FAMI 0.98 9.5e-01 0.0469 1
# ORAL 1.00 9.9e-01 0.0091 1
# WRIT 0.99 9.8e-01 0.0195 1
# PHYS 0.89 8.0e-01 0.2014 1
# RTEN 0.99 9.7e-01 0.0275 1

# PC1
# SS loadings 10.13
# Proportion Var 0.84

此处,获取一个未旋转的主成分。由于PCA只对相关系数矩阵进行分析,在获取主成分前,原始数据将会被自动转换为相关系数矩阵。

PC1 栏包含了成分载荷,指观测变量与主成分的相关系数。如果提取不止一个主成分,那么还将会有 PC2、PC3 等栏。成分载荷(component loadings)可用来解释主成分的含义。第一主成分(PC1)与每个变量都高度相关(除了第一个),也就是说,它是一个可用来进行一般性评价的维度。

h2 栏指成分公因子方差——主成分对每个变量的方差解释度。u2 栏指成分唯一性——方差无法被主成分解释的比例(即 1-h2)。例如,体能(PHYS)80% 的方差都可用第一主成分来解释,20% 不能。第一主成分对 ORAL 变量的解释性最好,对 CONT 变量的解释性则最差。

SS loadings 行包含了与主成分相关联的特征值,指的是与特定主成分相关联的标准化后的方差值(本例中,第一主成分的值为 10)。最后,Proportion Var 行表示的是每个主成分对整个数据集的解释程度。此处可以看到,第一主成分解释了 12 个变量 84% 的方差。

获得主成分得分

只需加上参数 score=T 即可获得评分。

1
2
3
4
5
6
7
8
9
pc <- principal(USJudgeRatings, nfactors = 1, scores = T)
head(pc$scores)
# PC1
# AARONSON,L.H. -0.18400648
# ALEXANDER,J.M. 0.74765156
# ARMENTANO,A.J. 0.07072468
# BERDON,R.I. 1.13651889
# BRACKEN,J.J. -2.15848207
# BURNS,E.B. 0.76821742

例 2:Harman23.cor

该数据集包含 305 个女孩的 8 个身体测量指标的相关系数,利用 pheatmap() 函数可视化如下:

harman23.cor 数据可视化

同样,希望用较少的变量替换这些原始身体指标。

确定主成分个数

1
2
3
fa.parallel(Harman23.cor$cov, n.obs = 302, fa='pc', n.iter = 100)
# Parallel analysis suggests that the number of factors = NA and the number of components = 2
abline(h=1)
例2

三种准则均显示保留两个主成分,但要注意三个准则并不总是相同,需要根据实际情况提取不同数目的主成分,选择最优解。

提取主成分

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
pc <- principal(Harman23.cor$cov, nfactors = 2, rotate = 'none')
pc
# Principal Components Analysis
# Call: principal(r = Harman23.cor$cov, nfactors = 2, rotate = "none")
# Standardized loadings (pattern matrix) based upon correlation matrix
# PC1 PC2 h2 u2 com
# height 0.86 -0.37 0.88 0.123 1.4
# arm.span 0.84 -0.44 0.90 0.097 1.5
# forearm 0.81 -0.46 0.87 0.128 1.6
# lower.leg 0.84 -0.40 0.86 0.139 1.4
# weight 0.76 0.52 0.85 0.150 1.8
# bitro.diameter 0.67 0.53 0.74 0.261 1.9
# chest.girth 0.62 0.58 0.72 0.283 2.0
# chest.width 0.67 0.42 0.62 0.375 1.7

# PC1 PC2
# SS loadings 4.67 1.77
# Proportion Var 0.58 0.22
# Cumulative Var 0.58 0.81
# Proportion Explained 0.73 0.27
# Cumulative Proportion 0.73 1.00

可见,第一主成分解释了身体测量指标 58% 的方差,第二主成分解释了 22% 的方差,二者一共解释了 81% 的方差。对于 height 变量,二者一共解释了 88% 的方差。

成分载荷显示,PC1 与所有变量都正相关,PC2 与前 4 个变量负相关,与其他变量正相关。当提取多个成分时,对其进行旋转可时结果更有解释性。

主成分旋转

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
rc <- principal(Harman23.cor$cov, nfactors = 2, rotate = 'varimax')
rc
# Principal Components Analysis
# Call: principal(r = Harman23.cor$cov, nfactors = 2, rotate = "varimax")
# Standardized loadings (pattern matrix) based upon correlation matrix
# RC1 RC2 h2 u2 com
# height 0.90 0.25 0.88 0.123 1.2
# arm.span 0.93 0.19 0.90 0.097 1.1
# forearm 0.92 0.16 0.87 0.128 1.1
# lower.leg 0.90 0.22 0.86 0.139 1.1
# weight 0.26 0.88 0.85 0.150 1.2
# bitro.diameter 0.19 0.84 0.74 0.261 1.1
# chest.girth 0.11 0.84 0.72 0.283 1.0
# chest.width 0.26 0.75 0.62 0.375 1.2

# RC1 RC2
# SS loadings 3.52 2.92
# Proportion Var 0.44 0.37
# Cumulative Var 0.44 0.81
# Proportion Explained 0.55 0.45
# Cumulative Proportion 0.55 1.00

旋转后变为 RC,RC1 主要由前四个变量来解释,主要与高度相关;RC2 主要由后四个变量来解释,主要与容量相关。两个主成分仍不相关,对变量的解释性不变,这是因为变量的群组没有发生变化。另外,两个主成分旋转后的累积方差解释性没有变化(81%),变的只是各个主成分对方差的解释度(成分 1 从 58% 变为 44%,成分 2 从 22% 变为 37%)。各成分的方差解释度趋同,准确来说,此时应该称它们为成分而不是主成分(因为单个主成分方差最大化性质没有保留)。

获得主成分得分系数

当主成分分析基于相关系数矩阵时,不能获取每个观测的主成分得分,只能得到得分系数。

1
2
3
4
5
6
7
8
9
10
round(unclass(rc$weights), 2)
# RC1 RC2
# height 0.28 -0.05
# arm.span 0.30 -0.08
# forearm 0.30 -0.09
# lower.leg 0.28 -0.06
# weight -0.06 0.33
# bitro.diameter -0.08 0.32
# chest.girth -0.10 0.34
# chest.width -0.04 0.27

主成分得分可以由下式计算:

PCi=var×RCiPC_i = \sum var×RC_i

其中:

  • varvar 是 height、arm.span 等变量
  • RC1RC_1 是对应变量的值

上式都假定身体测量指标都已标准化(mean = 0, sd = 1)。注意,体重在 PC1 上的系数约为 0.3 或 0,对于 PC2 也是一样。从实际角度考虑,你可以进一步简化方法,将第一主成分看做是前四个变量标准化得分的均值,类似地,将第二主成分看做是后四个变量标准化得分的均值,这正是我通常在实际中采用的方法。

探索性因子分析(exploration factor analysis,EFA)的是一系列用来发现一组变量潜在结构的方法。目标是通过寻找一组更小的、潜在的活隐藏的结构来解释已知的观测变量。如高中的几门学科,用因子分析就是:语言能力(语、外)、逻辑推理(数、理、化、生)、逻辑分析(史、地、政)。重点在于如何解释观测变量,探索观测变量的结构和原因。模型形式为:

Xi=a1F1+a2F2+...+apFp+UiX_i=a_1F_1+a_2F_2+...+a_pF_p+U_i

其中:

  • XiX_i :第ii 个可观测变量(i=1...ki=1...k);
  • FjF_j:公共因子(j=1...pj=1...p),且p<kp<k
  • UiU_iXiX_i 变量独有的部分(无法被公共因子解释);
  • aia_i:可以认为是每个因子对复合而成的可观测变量的贡献度。

Harman74.cor 数据集包含 24 个心理测验间的相关系数,若用 EFA 分析,就是要找到能够解释这些变量的潜在因子。

二者的异同

相同点:

  • 都对原始数据进行降维处理
  • 都消除了原始指标的相关性对综合评价所造成的信息重复的影响
  • 构造综合评价时涉及的权数具有客观性
  • 在信息损失不大的前提下,减少了评价的工作量

不同点:

PCAEFA
用较少变量表示原来的样本用较少的因子表示原来的变量
目的:样本数据损失最小时,对原数据进行变量降维目的:尽可能保持原变量相互关系,寻找变量的公共因子
参数估计,一般是求相关矩阵的特征值和相应的特征向量,取前几个计算主成分参数估计,指定几个公共因子,将其还原成相关数据矩阵,在和原样本相关矩阵最相似度原则下,估计各个公共因子的估计值
举例:语、数、英、文科、理科(变量降维)举例:语言能力(语、外)、逻辑推理(数、理、化、生)、逻辑分析(史、地、政)(公共因子)

实例

例 1:ability.cov

该数据集为 112 个参与者在 6 个测验(智力、画图、积木、迷津、阅读、词汇)得分的协方差矩阵。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
ability.cov
# $cov
# general picture blocks maze reading vocab
# general 24.641 5.991 33.520 6.023 20.755 29.701
# picture 5.991 6.700 18.137 1.782 4.936 7.204
# blocks 33.520 18.137 149.831 19.424 31.430 50.753
# maze 6.023 1.782 19.424 12.711 4.757 9.075
# reading 20.755 4.936 31.430 4.757 52.604 66.762
# vocab 29.701 7.204 50.753 9.075 66.762 135.292

# $center
# [1] 0 0 0 0 0 0

# $n.obs
# [1] 112

将协方差矩阵转换为相关系数矩阵

1
2
3
4
5
6
7
8
9
10
11
options(digits = 2)
covr <- ability.cov$cov
corr <- cov2cor(covr)
corr
# general picture blocks maze reading vocab
# general 1.00 0.47 0.55 0.34 0.58 0.51
# picture 0.47 1.00 0.57 0.19 0.26 0.24
# blocks 0.55 0.57 1.00 0.45 0.35 0.36
# maze 0.34 0.19 0.45 1.00 0.18 0.22
# reading 0.58 0.26 0.35 0.18 1.00 0.79
# vocab 0.51 0.24 0.36 0.22 0.79 1.00

确定公共因子个数

1
2
# 选择 both,以示 PCA 和 EFA 差别
fa.parallel(corr, fa='both', n.obs = 112, n.iter = 100)

平行分析结果

× 是 PCA,显示保留 1 个(碎石检验和平行分析)或 2 个(特征值大于 1)主成分。这时候,通常高估因子比低估因子结果要好,因为高估因子数一般较少曲解“真实”情况。

△ 是 EFA,显示保留 2 个因子,前两个特征值都在拐角之上,且大于 100 次随机数矩阵的特征值均值。对于 EFA,Kaiser-Harris 准则的特征值大于 0 ,而不是 1,因此也符合。

提取公共因子

可以用 fa() 函数处理:

1
fa(r, nfactors=, n.obs =, rotate=, scores=, fm=)

其中:

  • r:相关系数矩阵或者原始数据矩阵
  • nfactors:设定提取的因子数(默认为1)
  • n.obs:是观测数(输入相关系数矩阵时需要填写)
  • rotate:设定旋转的方法(默认互变异数最小法)
  • scores:设定是否计算因子得分(默认不计算)
  • fm:设定因子化方法(默认极小残差法)

提取公共因子的方法有很多,包括最大似然法(ml)、主轴迭代法(pa)、加权最小二乘法(wls)、广义加权最小二乘法(gls)和最小残差法(minres)。统计学家青睐使用最大似然法,因为它有良好的统计性质。不过有时候最大似然法不会收敛,此时使用主轴迭代法效果会很好。

主轴迭代法示例(不旋转)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
fa(r=corr, nfactors = 2, rotate = 'none', fm='pa')
# Factor Analysis using method = pa
# Call: fa(r = corr, nfactors = 2, rotate = "none", fm = "pa")
# Standardized loadings (pattern matrix) based upon correlation matrix
# PA1 PA2 h2 u2 com
# general 0.75 0.07 0.57 0.432 1.0
# picture 0.52 0.32 0.38 0.623 1.7
# blocks 0.75 0.52 0.83 0.166 1.8
# maze 0.39 0.22 0.20 0.798 1.6
# reading 0.81 -0.51 0.91 0.089 1.7
# vocab 0.73 -0.39 0.69 0.313 1.5

# PA1 PA2
# SS loadings 2.75 0.83
# Proportion Var 0.46 0.14
# Cumulative Var 0.46 0.60
# Proportion Explained 0.77 0.23
# Cumulative Proportion 0.77 1.00

可见,两个因子解释了 6 个心理学测验 60% 的方差,但因子载荷的意义不太好解释,需要对因子进行旋转。

最大似然法示例(不旋转)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
fa(r=corr, nfactors = 2, rotate = 'none', fm='ml')
# Factor Analysis using method = ml
# Call: fa(r = corr, nfactors = 2, rotate = "none", fm = "ml")
# Standardized loadings (pattern matrix) based upon correlation matrix
# ML1 ML2 h2 u2 com
# general 0.65 0.35 0.54 0.455 1.5
# picture 0.35 0.54 0.41 0.589 1.7
# blocks 0.47 0.75 0.78 0.218 1.7
# maze 0.25 0.41 0.23 0.769 1.7
# reading 0.96 -0.13 0.95 0.052 1.0
# vocab 0.82 -0.04 0.67 0.334 1.0

# ML1 ML2
# SS loadings 2.42 1.16
# Proportion Var 0.40 0.19
# Cumulative Var 0.40 0.60
# Proportion Explained 0.68 0.32
# Cumulative Proportion 0.68 1.00

与上类似。

因子旋转

主轴迭代法 + 正交旋转

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
fa(r=corr, nfactors = 2, rotate = 'varimax', fm='pa')
# Factor Analysis using method = pa
# Call: fa(r = corr, nfactors = 2, rotate = "varimax", fm = "pa")
# Standardized loadings (pattern matrix) based upon correlation matrix
# PA1 PA2 h2 u2 com
# general 0.49 0.57 0.57 0.432 2.0
# picture 0.16 0.59 0.38 0.623 1.1
# blocks 0.18 0.89 0.83 0.166 1.1
# maze 0.13 0.43 0.20 0.798 1.2
# reading 0.93 0.20 0.91 0.089 1.1
# vocab 0.80 0.23 0.69 0.313 1.2

# PA1 PA2
# SS loadings 1.83 1.75
# Proportion Var 0.30 0.29
# Cumulative Var 0.30 0.60
# Proportion Explained 0.51 0.49
# Cumulative Proportion 0.51 1.00

此时因子更好解释,reading 和 vocab 在 PA1 的载荷较大,picture、blocks 和 maze 在 PA2 上载荷较大,而 general 智力测试在两个因子上的载荷较为平均。说明,存在一个语言的智力因子和非语言的智力因子。

最大似然法 + 正交旋转

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
fa(r=corr, nfactors = 2, rotate = 'varimax', fm='ml')
# Factor Analysis using method = ml
# Call: fa(r = corr, nfactors = 2, rotate = "varimax", fm = "ml")
# Standardized loadings (pattern matrix) based upon correlation matrix
# ML1 ML2 h2 u2 com
# general 0.50 0.54 0.54 0.455 2.0
# picture 0.16 0.62 0.41 0.589 1.1
# blocks 0.21 0.86 0.78 0.218 1.1
# maze 0.11 0.47 0.23 0.769 1.1
# reading 0.96 0.18 0.95 0.052 1.1
# vocab 0.78 0.22 0.67 0.334 1.2

# ML1 ML2
# SS loadings 1.86 1.72
# Proportion Var 0.31 0.29
# Cumulative Var 0.31 0.60
# Proportion Explained 0.52 0.48
# Cumulative Proportion 0.52 1.00

结果类似。

使用正交旋转将使两个因子不相关。如果允许两个因子相关呢?

主轴迭代法 + 斜交旋转

1
2
# 斜交旋转需要 GPArotation 包
install.packages('GPArotation')
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
fa(r=corr, nfactors = 2, rotate = 'promax', fm='pa')
# Loading required namespace: GPArotation
# Factor Analysis using method = pa
# Call: fa(r = corr, nfactors = 2, rotate = "promax", fm = "pa")
# Standardized loadings (pattern matrix) based upon correlation matrix
# PA1 PA2 h2 u2 com
# general 0.37 0.48 0.57 0.432 1.9
# picture -0.03 0.63 0.38 0.623 1.0
# blocks -0.10 0.97 0.83 0.166 1.0
# maze 0.00 0.45 0.20 0.798 1.0
# reading 1.00 -0.09 0.91 0.089 1.0
# vocab 0.84 -0.01 0.69 0.313 1.0

# PA1 PA2
# SS loadings 1.83 1.75
# Proportion Var 0.30 0.29
# Cumulative Var 0.30 0.60
# Proportion Explained 0.51 0.49
# Cumulative Proportion 0.51 1.00

# With factor correlations of
# PA1 PA2
# PA1 1.00 0.55
# PA2 0.55 1.00

正交旋转侧重于因子结构矩阵(变量与因子的相关系数),而斜交旋转会考虑三个矩阵:因子结构矩阵因子模式矩阵因子关联矩阵

因子模式矩阵即标准化的回归系数矩阵。它列出了因子预测变量的权重。因子关联矩阵即因子相关系数矩阵。PA1 和 PA2 栏即因子模式矩阵 (不是正交旋转中的因子结构矩阵),它们是标准化的回归系数,而不是相关系数。同样可以得到一个语言因子和一个非语言因子。

最下方的因子关联矩阵显示两个因子的相关系数为 0.55,相关性很大。如果因子间的关联性很低,可能需要重新使用正交旋转来简化问题。

因子结构矩阵(或称因子载荷阵)没有被列出来,可以使用公式F=PPhiF = P*Phi 计算,其中FF 是因子载荷阵,PP 为因子模式矩阵,PhiPhi 为因子关联矩阵。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
fa.promax <- fa(r=corr, nfactors = 2, rotate = 'promax', fm='pa')
fa.promax$loadings
# Loadings:
# PA1 PA2
# general 0.369 0.484
# picture 0.628
# blocks -0.104 0.966
# maze 0.449
# reading 1.003
# vocab 0.836

# PA1 PA2
# SS loadings 1.85 1.8
# Proportion Var 0.31 0.3
# Cumulative Var 0.31 0.6

P <- unclass(fa.promax$loadings)
P
# PA1 PA2
# general 0.3691 0.484
# picture -0.0262 0.628
# blocks -0.1036 0.966
# maze 0.0017 0.449
# reading 1.0033 -0.095
# vocab 0.8362 -0.014

F <- P %*% fa.promax$Phi
F
# PA1 PA2
# general 0.64 0.69
# picture 0.32 0.61
# blocks 0.43 0.91
# maze 0.25 0.45
# reading 0.95 0.46
# vocab 0.83 0.45

现在你可以看到变量与因子间的相关系数。将它们与正交旋转所得因子载荷阵相比,会发现该载荷阵列的噪音比较大,这是因为之前你允许潜在因子相关。虽然斜交方法更为复杂,但模型将更符合真实数据。

使用 factor.plot()fa.diagram() 函数,可以绘制正交或者斜交结果的图形。

1
factor.plot(fa.promax, labels = row.names(fa.promax$loadings))

可见,词汇和阅读在 PA1 上载荷较大,而积木图案、画图和迷宫在 PA2 上载荷较大。普通智力测验在两个因子上较为平均。

1
fa.diagram(fa.promax, simple=FALSE)

若使 simple = T,那么将仅显示每个因子下最大的载荷,以及因子间的相关系数。这类图形在有多个因子时十分实用。

1
fa.diagram(fa.promax, simple=TRUE)

例 2:Harman74.cov

1
2
fa.parallel(Harman74.cor$cov, n.obs = 145, fa='both', n.iter = 100)
Parallel analysis suggests that the number of factors = 4 and the number of components = 3
1
2
3
fa.24 <- fa(Harman74.cor$cov, nfactors = 4, rotate = 'promax')
fa.diagram(fa.24, simple = FALSE)
factor.plot(fa.24, labels = row.names(fa.24$loadings))

fa.diagram

factor.plot