博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
关于PCA算法的一点学习总结
阅读量:5756 次
发布时间:2019-06-18

本文共 1419 字,大约阅读时间需要 4 分钟。

本文出处:http://blog.csdn.net/xizhibei

=============================

PCA,也就是PrincipalComponents Analysis,主成份分析,是个非常优秀的算法,依照书上的说法:

寻找最小均方意义下,最能代表原始数据的投影方法

然后自己的说法就是:主要用于特征的降维

另外,这个算法也有一个经典的应用:人脸识别。这里略微扯一下,无非是把处理好的人脸图片的每一行凑一起作为特征向量,然后用PAC算法降维搞定之。

PCA的主要思想是寻找到数据的主轴方向,由主轴构成一个新的坐标系,这里的维数能够比原维数低,然后数据由原坐标系向新的坐标系投影,这个投影的过程就能够是降维的过程。

推导过程神马的就不扯了,推荐一个课件:http://www.cs.otago.ac.nz/cosc453/student_tutorials/principal_components.pdf,讲得挺具体的

然后说下算法的步骤

1.计算全部样本的均值m和散布矩阵S,所谓散布矩阵同协方差矩阵;

2.计算S的特征值,然后由大到小排序;

3.选择前n'个特征值相应的特征矢量作成一个变换矩阵E=[e1, e2, …, en’];

4.最后,对于之前每个n维的特征矢量x能够转换为n’维的新特征矢量y:

  y = transpose(E)(x-m)

最后还得亲自做下才干记得住:用Python的numpy做的,用C做的话那就是没事找事,太费事了,由于对numpy不熟,以下可能有错误,望各位大大指正

mat = np.load("data.npy")#每一行一个类别数字标记与一个特征向量data = np.matrix(mat[:,1:])avg = np.average(data,0)means = data - avgtmp = np.transpose(means) * means / N #N为特征数量D,V = np.linalg.eig(tmp)#DV分别相应特征值与特征向量组成的向量,须要注意下的是,结果是自己主动排好序的,再次膜拜numpy  OTL#print V#print DE = V[0:100,:]#这里仅仅是简单取前100维数据,实际情况能够考虑取前80%之类的y = np.matrix(E) * np.transpose(means)#得到降维后的特征向量np.save("final",y)

另外,须要提一下的是OpenCV(无所不能的OpenCV啊OTL)中有PCA的实现:

void cvCalcPCA( const CvArr* data,//输入数据 				CvArr* avg, //平均(输出)				CvArr* eigenvalues, //特征值(输出)				CvArr* eigenvectors, //特征向量(输出)				int flags );//输入数据中的特征向量是怎么放的,比方CV_PCA_DATA_AS_ROW

最后,说下PCA的缺点:PCA将全部的样本(特征向量集合)作为一个总体对待,去寻找一个均方误差最小意义下的最优线性映射投影,而忽略了类别属性,而它所忽略的投影方向有可能刚好包括了重要的可分性信息

嗯,最后的最后——好了,没了,的确是最后了

强烈推荐:一篇能把PAC说得非常透彻的文章《特征向量物理意义》:

你可能感兴趣的文章
Dependency Injection in SignalR – ASP.NET SignalR
查看>>
ThreadPoolExecutor源码解析
查看>>
URL some
查看>>
SUSE10 SP2/SP3 无规律死机故障解决
查看>>
统计查询
查看>>
PDFBox
查看>>
工作授权系统
查看>>
Codeforces D - Ithea Plays With Chtholly
查看>>
CSS3---first-child或者nth-child(1) 不起作用的原因
查看>>
openstack libtray
查看>>
关于TreeView(CS/BS)解决方案
查看>>
顶帽变化(转载)
查看>>
如何学好C++语言(转)
查看>>
PTA基础编程题目集6-7 统计某类完全平方数 (函数题)
查看>>
计算20140215
查看>>
2014022101
查看>>
alertifyjs
查看>>
【笔记】句子中单词逆序输出
查看>>
ggplot2画图小试
查看>>
python 循环定时器
查看>>