Python机器学习之PCA降维算法详解
程序员文章站
2022-03-27 15:30:01
一、算法概述 主成分分析 (principal componentanalysis,pca)是一种掌握事物主要矛盾的统计分析方法,它可以从多元事物中解析出主要影响因素,揭示事物的本质,简化复杂的...
一、算法概述
- 主成分分析 (principal componentanalysis,pca)是一种掌握事物主要矛盾的统计分析方法,它可以从多元事物中解析出主要影响因素,揭示事物的本质,简化复杂的问题。
- pca 是最常用的一种降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的方差最大,以此使用较少的维度,同时保留较多原数据的维度。
- pca 算法目标是求出样本数据协方差矩阵的特征值和特征向量,而协方差矩阵的特征向量的方向就是pca需要投影的方向。使样本数据向低维投影后,能尽可能表征原始的数据。
- pca 可以把具有相关性的高维变量合成为线性无关的低维变量,称为主成分。主成分能够尽可能的保留原始数据的信息。
- pca 通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理等。
二、算法步骤
1.将原始数据按行组成m行n列的矩阵x
2.将x的每一列(代表一个属性字段)进行零均值化,即减去这一列的均值
3.求出协方差矩阵
4.求出协方差矩阵的特征值及对应的特征向量r
5.将特征向量按对应特征值大小从左到右按列排列成矩阵,取前k列组成矩阵p
6.计算降维到k维的数据
三、相关概念
-
方差
:描述一个数据的离散程度
-
协方差
:描述两个数据的相关性,接近1就是正相关,接近-1就是负相关,接近0就是不相关
-
协方差矩阵
:协方差矩阵是一个对称的矩阵,而且对角线是各个维度的方差
-
特征值
:用于选取降维的k个特征值 -
特征向量
:用于选取降维的k个特征向量
四、算法优缺点
优点
- 仅仅需要以方差衡量信息量,不受数据集以外的因素影响。
- 各主成分之间正交,可消除原始数据成分间的相互影响的因素。
- 计算方法简单,主要运算是特征值分解,易于实现。
缺点
- 主成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强。
- 方差小的非主成分也可能含有对样本差异的重要信息,降维丢弃的数据可能对后续数据处理有影响。
五、算法实现
自定义实现
import numpy as np # 对初始数据进行零均值化处理 def zeromean(datamat): # 求列均值 meanval = np.mean(datamat, axis=0) # 求列差值 newdata = datamat - meanval return newdata, meanval # 对初始数据进行降维处理 def pca(datamat, percent=0.19): newdata, meanval = zeromean(datamat) # 求协方差矩阵 covmat = np.cov(newdata, rowvar=0) # 求特征值和特征向量 eigvals, eigvects = np.linalg.eig(np.mat(covmat)) # 抽取前n个特征向量 n = percentage2n(eigvals, percent) print("数据降低到:" + str(n) + '维') # 将特征值按从小到大排序 eigvalindice = np.argsort(eigvals) # 取最大的n个特征值的下标 n_eigvalindice = eigvalindice[-1:-(n + 1):-1] # 取最大的n个特征值的特征向量 n_eigvect = eigvects[:, n_eigvalindice] # 取得降低到n维的数据 lowdatamat = newdata * n_eigvect reconmat = (lowdatamat * n_eigvect.t) + meanval return reconmat, lowdatamat, n # 通过方差百分比确定抽取的特征向量的个数 def percentage2n(eigvals, percentage): # 按降序排序 sortarray = np.sort(eigvals)[-1::-1] # 求和 arraysum = sum(sortarray) tempsum = 0 num = 0 for i in sortarray: tempsum += i num += 1 if tempsum >= arraysum * percentage: return num if __name__ == '__main__': # 初始化原始数据(行代表样本,列代表维度) data = np.random.randint(1, 20, size=(6, 8)) print(data) # 对数据降维处理 fin = pca(data, 0.9) mat = fin[1] print(mat)
利用sklearn库实现
import matplotlib.pyplot as plt from sklearn.decomposition import pca from sklearn.datasets import load_iris # 加载数据 data = load_iris() x = data.data y = data.target # 设置数据集要降低的维度 pca = pca(n_components=2) # 进行数据降维 reduced_x = pca.fit_transform(x) red_x, red_y = [], [] green_x, green_y = [], [] blue_x, blue_y = [], [] # 对数据集进行分类 for i in range(len(reduced_x)): if y[i] == 0: red_x.append(reduced_x[i][0]) red_y.append(reduced_x[i][1]) elif y[i] == 1: green_x.append(reduced_x[i][0]) green_y.append(reduced_x[i][1]) else: blue_x.append(reduced_x[i][0]) blue_y.append(reduced_x[i][1]) plt.scatter(red_x, red_y, c='r', marker='x') plt.scatter(green_x, green_y, c='g', marker='d') plt.scatter(blue_x, blue_y, c='b', marker='.') plt.show()
六、算法优化
pca是一种线性特征提取算法,通过计算将一组特征按重要性从小到大重新排列得到一组互不相关的新特征,但该算法在构造子集的过程中采用等权重的方式,忽略了不同属性对分类的贡献是不同的。
kpca算法
kpca是一种改进的pca非线性降维算法,它利用核函数的思想,把样本数据进行非线性变换,然后在变换空间进行pca,这样就实现了非线性pca。
局部pca算法
局部pca是一种改进的pca局部降维算法,它在寻找主成分时加入一项具有局部光滑性的正则项,从而使主成分保留更多的局部性信息。
到此这篇关于python机器学习之pca降维算法详解的文章就介绍到这了,更多相关python pca降维算法内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
上一篇: 月饼有多少口味?月饼口味超多
下一篇: 吃剩的骨头属于什么垃圾?现在告诉你