摘 要:如何有效的描述每个人脸的个体特征,使之容易区别于其他人,是人脸识别特征抽取中最关键的一部分。近年来,子空间分析方法因其具有描述性强、计算代价小等优点在人脸识别领域中得到了广泛的使用。本文重点对线性子空间方法中的2DPCA,2DLDA,2DICA做了理论上的比较,并利用matlab编程获得了实验数据的支持。同等的实验条件下,在ORL姿态库和CMU表情库的实验结果表明2DLDA识别效果最优,2DPCA识别效率最高,而无论是从识别率还是识别速度上来说,2DICA均介于二者之间。
关键词:人脸识别;2DPCA;2DLDA;2DICA
本文受到三峡大学硕士论文培优基金的支持(2013PY040)
1 引言
人脸识别因其具有自然性且易被人接受已成为计算机视觉与模式识别领域的一大研究热点[1-2]。但识别率的高低主要受到表情,姿态,光照等因素的制约,近些年已有大量的科研工作者提出了很多方法来解决这类问题[3],其中子空间分析因其描述性强、易实现等优点,在人脸识别领域受到了广泛的关注。子空间分析的思想就是根据一定的性能目标来寻找一线性或非线性的空间变换,把原始信号数据压缩到一个低维子空间,使数据在子空间中的分布更加紧凑,为数据的更好描述提供了手段,另外计算的复杂度也得到了大大的降低。目前在人脸识别中得到成功运用的线性子空间分析方法有:主成分分析(PCA)[4]、线性判别分析(LDA)[5]、独立成分分析(ICA)[6]和非负矩阵因子分解(NMF)[7]及其改进算法[8-10]。
2 实验与分析
本文中统一将训练样本图像集设为, 表示第类的第个大小为的训练样本,C为样本总类别数,为每一类样本数,总样本数为。
2.1 2DPCA
2DPCA[11]是在PCA基础上的改进,基本思想来源于K-L变换[12],目的是从训练样本图像中,通过线性变换得到一组特征脸图像,那么任意给定的人脸图像都可以近似为这组特征脸图像的线性组合,而组合的系数即作为人脸的特征向量。其本质特点在于采用最大化类间离散度作为准则。但是PCA是将图像转换成的向量,破坏了图像的二维结构特征,并且转换成向量之后计算量太大,2DPCA方法就很好地解决了以上的问题,不仅保持了人脸图像的结构特性,更容易准确地评估协方差矩阵,即在图像的特征提取上更加简单直观,而且确定相应的特征向量时需要的时间更少,因而可以显著提高图像的特征提取速度,计算量小。
基于二维主成分分析的人脸识别的具体步骤如下:
读入训练样本图象A并算出所有训练样本的平均图象
计算训练样本集总体散度矩阵即图像的协方差矩阵
(1)
构造矩阵并进行奇异值分解,求其特征值构成的对角阵V及其对应的特征向量组成的矩阵U
取出V中按降序排列的前d个最大特征值对应的特征向量组成特征空间
2.2 2DLDA
性性判别分析(LDA)技术是模式识别中的又一经典的特征提取和数据降维的方法。采用了Fisher判别准则函数,因此也称为FLD,是R.A.Fisher于1936 年提出的。但是它仅适用于两类分类问题。在Fisher思想的基础之上,Wilks和Duda分别提出了判别矢量集的概念,即寻找由一组判别矢量构成的投影子空间,将样本投影到该子空间上得到投影向量,并作为最终提取的特征向量从而解决了多分类问题,该方法被称为经典的Fisher线性判别分析方法。2DLDA[13]是LDA在矩阵模式下的平行推广,但都是以样本的可分性为目标,寻找线性变换从高维输入空间里提取出最具有判别能力的低维特征,这些特征能帮助将同一个类别的所有样本聚集在一起,而不同类别的样本尽量分开,即寻找线性变换使得变换后的样本类间离散度和类内离散度的比值最大。
基于线性判别分析的人脸识别的具体步骤如下:
读入训练样本图像并计算第i类训练样本均值和所有训练样本均值
(2)
求内类散度矩阵和内间散度矩阵
(3)
基于Fisher准则寻找最优的投影矩阵
(4)
计算的特征值V和对应的特征向量U
取出V中按降序排列的前d个最大特征值对应的特征向量组成特征空间
2.3 2DICA
独立元分析(ICA)是近几年才发展起来的一种新的统计方法,最早提出ICA概念的是Jutten和Herault,当时他们对ICA给出了一种相当简单的描述,认为ICA是从线性混合信号里恢复出一些基本的源信号的方法。由于ICA是基于信号高阶统计特性的分析方法,并且经ICA分解出的各信号分量之间是相互独立的,因此,ICA在信号处理领域受到了广泛的关注。基本思想就是通过线性变换,从训练样本中找到一组相互独立的基,并以此来描述样本数据。2DICA[14]是直接运用图像矩阵参与计算,在时间上更具优势。
基于独立成分分析的人脸识别的具体步骤如下:
读入训练样本图象A并中心化训练样本,中心化后的训练样本集为
(5)
计算训练样本的协方差矩阵S
(6)
其中, E是由S的特征向量组成的正交矩阵, D是由相应的特征值组成的对角矩阵
求出白化矩阵V,
则白化后的数据为:
(7)
用 FastICA 方法计算得到分离矩阵Xk
所有的识别过程:
对于一幅给定的人脸图像A,向特征空间Xk投影之后即可得到m*d维的特征矩阵,其中 。在这里任意的两个特征矩阵和之间的欧式距离定义为
(8)
假设N个训练样本,每一个样本都属于某个特定的类别。给定一个样本B,若满足式(9),则认为。
(9)
3 仿真实验
实验选择ORL姿态库和CMU表情库,将人脸库中的人脸图像分成两组,前几张作为训练样本,剩下的作为测试样本,记录实验中的正确识别率以及识别时间。
图1为ORL姿态库和CMU 表情库上三种方法识别率对比的实验结果,横轴均代表训练样本的个数。从识别率上来看,这三种方法的识别率都随着训练样本数的增加而变大,尤其在CMU表情库上识别率均达到了100%。在训练样本数相同的条件下,2DLDA的方法表现的要优于2DICA,而2DICA要优于2DPCA。但2DLDA方法有一个最大的缺点是当只有一个训练样本时,是无法识别的,这也就是所谓的奇异问题,在小样本的情况下,识别率要低于其他两种方法。图2为ORL姿态库和CMU 表情库上三种方法识别时间对比的实验结果图,从识别时间上来看,2DLDA方法需要的时间最长,当有两个以上的样本参与训练时,,时间为20S以上。而2DPCA和2DICA识别时间低于10S。2DPCA方法的识别时间随着训练样本数的增加变化的不明显。
图1 不同训练样本数的识别率
图2 不同训练样本数的识别时间
出现这种结果的原因在于PCA是将高维图像投影到由所有样本协方差矩阵的特征向量组成的子空间上,达到了很好的去相关和降维的效果,能对原图像进行很好的表示却不具有很好的分类能力,仅仅抓住了人脸的描述特征,经过K--L变换分解后只考虑了图像的二阶统计信息而忽略了高阶统计信息。独立成分分析不仅涉及到变量间的二阶相关性还涉及到变量间的高阶相关性,因此独立成分分析可视为主成分分析方法的一种推广,而图像的高阶统计信息在分类识别的过程中也是尤为重要的,因此其识别率要高于主成分分析方法的识别率。线性判别分析方法抓住的是人脸的判别特征,是以分类为目的的有监督算法,比起主成分分析和独立判别分析这两种无监督方法,自然会有很好地分类效果。但同时线性判别分析在求解特征空间的时候利用了类间散度矩阵的逆矩阵,故而在提取特征的时候时间复杂度要大于其他二种方法。
4 结论
论文研究了人脸识别中线性子空间分析方法的经典算法2DPCA、2DLDA、2DICA,分析了他们的原理以及各自的优缺点,通过在ORL和CMU人脸库上的实验结果表明:
1)2DLDA的识别效果要优于2DPCA和2DICA,但识别时间也是最长的,另外2DLDA存在小样本问题。2) ICA 基向量比PCA基向量在空间上更局部化,而局部特征对人脸表示很重要,因而2DICA 识别精度比2DPCA要高。
参考文献
[1]A. F. Abate, M. Nappi. 2D and 3D face recognition: A survey. Pattern Recognition Letters. 2007, 28(14):1885-1906.
[2]F. Dai, N. Kushida, L. Shang. A survey of genetic algorithm-based face recognition. Artificial Life and Robotics, 2011, 16(2):271-274.
[3]P.Jonathon Phillips et.al.FRVT2006 and ICE 2006 large-scale results.Technical Report NISTIR7408,National Institute of Standards and Technology,2007.
[4]M.A.Turkand A.P.Pentland.Eigenfaces for Recognition. Cogn. Neurosci, 1991, 3(1), :71-86.
[5]Bellhumeur P N, Hespanha J P, Kriegman D J. Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection. IEEE Trans on Pattern Analysis and Machine Intelligence, 1997, 19(7), pp: 711-720.
[6]Bartlett M S. Independent component representations for face recognition[M]//Face Image Analysis by Unsupervised Learning. Springer US, 2001: 39-67.
[7]李乐, 章毓晋. 非负矩阵分解算法综述[J]. 电子学报, 2008, 36(4).
[8]Liu N,Wang H.Feature extraction using evolutionary weighted principal component analysis,IEEE International Conference on Systems,Man and Cybernetics,2005:346-350.
[9]Q. Gao, L. Zhang, D. Zhang. Face recognition using FLDA with single raining image per person. Applied Mathematics and Computation, 2008, 205(2):726-734.
[10]Z. Sun, C. Sun. Feature extraction using 2DIFDA with fuzzy membership. Soft Computing, 2012, 16(10):1783-1793.
[11]Yang J, Zhang D, Frangi A F, et al. 2004. Two-dimensional PCA: a new approach to appearance-based face representation and recognition[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 26(1): 131-137.
[12]Kirby M, Sirovich L. 1990. Application of the Karhunen-Loeve procedure for the characterization of human faces[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 12(1): 103-108.
[13]Li M, Yuan B. 2005. 2D-LDA: A statistical linear discriminant analysis for image matrix[J]. Pattern Recognition Letters, 26(5): 527-532.
[14]GAN J, LI C. 2DICA based on wavelet transformation and applications in face recognition[J]. Journal of System Simulation, 2007, 3: 036.