特征抽取与svm在人脸识别的应用

特征抽取与svm在人脸识别的应用

ID:27803490

大小:396.90 KB

页数:12页

时间:2018-12-06

特征抽取与svm在人脸识别的应用_第1页
特征抽取与svm在人脸识别的应用_第2页
特征抽取与svm在人脸识别的应用_第3页
特征抽取与svm在人脸识别的应用_第4页
特征抽取与svm在人脸识别的应用_第5页
资源描述:

《特征抽取与svm在人脸识别的应用》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、特征抽取与SVM在人脸识别的应用1实验目的:1.通过特征抽取与SVM对人脸数据集进行识别2.对比不同特征提取方法的效果3.对比不同SVM分类精度效果2实验原理:2.1PCAPCA是主成分分析,主要用于数据降维,对于一系列sample(样本)的fcaturc(特征)组成的多维向量,多维向量里的某些元素本身没有区分性,比如某个元素在所有的sample中都为1,或者与1差距不大,那么这个元素本身就没有区分性,用它做特征來区分,贡献会非常小。所以我们的目的是找那些变化大的元素,即方差大的那些维,而去除掉那些变

2、化不大的维,从而使feature留下的都是“精品”,而且计算量也变小了。对于一个k维的feature来说,相当于它的每一维feature与其他维都是正交的(相当于在多维坐标系中,坐标轴都是垂直的),那么我们可以变化这些维的坐标系,从而使这个feature在某些维上方差大,而在某些维上方差很小。例如,一个45度倾斜的椭圆,在第一坐标系,如果按照x,y坐标来投影,这些点的x和y的属性很难用于区分他们,因为他们在x,y轴上坐标变化的方差都差不多,我们无法根据这个点的某个x属性来判断这个点是哪个,而如果将坐标

3、轴旋转,以椭圆长轴为x轴,则椭圆在长轴上的分布比较长,方差大,而在短轴上的分布短,方差小,所以可以考虑只保留这些点的长轴属性,来区分椭圆上的点,这样,区分性比x,y轴的方法要好!所以我们的做法就是求得一个k维特征的投影矩阵,这个投影矩阵可以将feature从高维降到低维。投影矩阵也可以叫做变换矩阵。新的低维特征必须每个维都正交,特征向量都是正交的。通过求样本矩阵的协方差矩阵,然后求出协方差矩阵的特征向量,这些特征向量就可以构成这个投影矩阵了。特征向量的选择取决于协方差矩阵的特征值的大小。2.1KPCA

4、KPCA的公式推导和PCA十分相似,只是存在两点创新:1.为了更好地处理非线性数据,引入非线性映射函数,将原空间屮的数据映射到高维空间,注意,这个映射函数是隐性的,我们不知道,也不需要知道它的具体形式是啥。2.引入了一个定理:空间中的任一向量(哪怕是基向量),都可以由该空间中的所有样本线性表示,这点对KPCA很重要。即核函数的基本思想。假设中心化后的样本集合X(d*7,N个样本,维数d维,样本“按列排列”),现将X映射到高维空间,得到,假设在这个高维空间屮,本來在原空间屮线性不可分的样本现在线性可分了

5、,然后通过PCA降维。2.3LDA线性判别式分析(LinearDiscriminantAnalysis,LDA),也叫做Fisher线性判别(FisherLinearDiscriminant,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一

6、种有效的特征抽取方法。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。就是说,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。2.4SVMVapnik等人在多年研究统计学习理论基础上对线性分类器提出了另一种设计最佳准则。其原理也从线性可分说起,然后扩展到线性不可分的情况。甚至扩展到使用非线性函数中去,这种分类器被称为支持向量机(SupportVectorMachine,简称SVM)o支持向量机的提出有很深的理论背景。

7、支持向量机方法是在后来提出的一种新方法。SVM的主要思想可以概括为两点:⑴它是针对线性可分情况进行分析,对于线性不可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空间使其线性可分,从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成为可能.1.3PSVM标准的近似支持向量机((PSVM)用求解正则化最小二乘问题代替了求解二次规划问题,它可以得到一个解析解,从而减少训练时间。1.4SVM多分类SVM算法最初是为二值分类问题设计的,当处理多类问题时,就需要构造合适

8、的多类分类器。目前,构造SVM多类分类器的方法主要有两类:一类是直接法,直接在目标函数上进行修改,将多个分类面的参数求解合并到一个最优化问题中,通过求解该最优化问题“一次性”实现多类分类。这种方法看似简单,但其计算复杂度比较高,实现起来比较困难,只适合用于小型问题中;另一类是间接法,主要是通过组合多个二分类器来实现多分类器的构造,常见的方法有one-against-one和one-against-al1两种。I:一对多法(one-versus-rest,

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。