第24卷第2期2011年4月模式识别与人工智能PR&AIV01.24AprNo.22011张量补全算法及其在人脸识别中的应用史加荣焦李成尚凡华(西安电子科技大学智能信息处理研究所智能感知与图像理解教育部重点实验室西安710071)摘要数据丢失问题通常可以归结为矩阵补全问题,而矩阵补全是继压缩感知理论之后的又一种重要的信号获取方法.在实际应用中,数据样例往往具有多线性性,即数据集可以表示成高阶张量.本文研究了张量补全问题及其在人脸识别中的应用.基于张量的低维Tucker分解,提出张量补全的迭代算法,并且证明在算法的迭代过程中,估计张量与其Tucker逼近张量的距离是单调递减的.实验结果表明张量补全算法在补全张量和人脸识别上的可行性与有效性.关键词张量补全,人脸识别,数据丢失问题,矩阵补全,Tucker分解中图法分类号11P391.4TensorCompletionAlgorithmandItsApplicationsinFaceRecognitiOnSHIJia—Rong,JIAOU—Cheng,SHANGFan—Hua(量研如60m£o可矿m把ZZ瑶}em胁£如me旷觑删咖眦蜘胁毗加mc∞s垤,蜀di口n‰娩船蚵,施缸凡710071)ABSTRACTPercep£幻n口蒯懈‰de您t肌击ng矿施n括打y矿尉妣口£ion矿醌i№,Missingdatapmblemscompletionisanarecommollly砌butedtothem“xcompletionproblem,andmatrixdataimportantmethodofsignalacquisitionsfoUowingcompressingsetsensing.Theex锄plesBasedonhavetllepropertyofmulti—line耐tyin叩plications,tIlatis,thedatacanberepresentedbyhighero珂ertensors.Thetensorcompletionproblemanditsapplicationsinfacerecognitiona弛studied.decompositionoftensorS,aIllowe卜dimensionalTuckeriterativealgorithmisproposedtocompletetensors.AndthedistancebetweentheestimatingtensoranditsTuckerappmximationtensormonotonicallydecreasesduringtheitemtiVeprocedure.ExperimentalresultsdemonstratetheeffectiVenessandfeasibilityoftlleproposedmethodincompletingtensorandf如erecognition.KeyWords’rensorCompletion,FaceRecognition,MissingDataProblem,MatrixCompletion,TuckerDecomposition木国家973重点基础研究发展计划(N0.2006CB705707),国家863高技术研究发展计划(№.2007AAl2恐23,2007AAl22136),国家自然科学基金(No.60603019,60602064,60702062)资助收稿日期:2009一09—10;修回日期:2010—08—16作者简介史加荣,男,1979年生,博士研究生,主要研究方向为机器学习与模式识别.E-mail:jiaron铲3@yalloo.cn.焦李成,男,1959年生,教授,博士生导师,主要研究方向为自然计算,数据挖掘,图像处理,智能信息处理.尚凡华,男,1979年生,博士研究生,主要研究方向为机器学习.万方数据模式识别与人工智能24卷l引言数据丢失问题广泛地存在于科学与工程的诸多领域中,例如:计算机视觉[1。2]、图像修复[31和机器学习-4J.为了分析与处理数据,通常需要事先估计丢失的元素.估计丢失元素的方法主要有两类:第一类是基于统计的归因法,主要包括均值法,忌近邻法和预测模型法等H。1;第二类是低秩矩阵分解法,它先将整个数据集表示为一个矩阵,然后基于秩亏损这一性质去恢复丢失的元素,主要包括wiberg算法,阻尼牛顿(DampedNe试on,DN)算法,Levenberg—Ma叩ardt算法和幂迭代法等¨q’6J.根据第二类方法来恢复丢失元素又被称为矩阵补全问题(MatrixCompletionProblem)¨j.在很多情况下,矩阵具有结构性,即它们是低秩或近似低秩的.对于一个秩为r的m×n矩阵A,由奇异值分解可知它的自由度为(m+n—r)r¨J.当r《min(m,n)时,矩阵A的自由度远远小于它的元素总数目mm这意味着由矩阵的少数采样来恢复矩阵是可能的.一个至关重要的问题是,如果矩阵的采样充分,是否一定能恢复矩阵?回答是否定的.考虑一个m×n的矩阵曰,它只有一个非零元素,显然它的秩为1.但是当矩阵曰的非零元素丢失时,不可能再恢复它.这自然会产生一个问题:当矩阵及采样数目满足什么条件时,可以较好地恢复它.最近,Cand色s等一,81证明了当矩阵的特征值及采样数目满足一定的条件时,大多数低秩矩阵可以通过求解简单的凸优化问题(即半定规划问题)而以较大的概率近乎完美地恢复.现有的半定规划算法仅能解决小规模的问题,而最新提出的奇异阈值算法可以解决较大规模的矩阵补全问题一】.矩阵补全已成为继压缩感知(CompressedSensing)之后的又一种重要的信号获取方法¨引.对于数据集中的样例,传统的表示方法是向量形式.在实际应用中,样例往往具有多线性性.例如,灰度人脸图像可以表示为2阶张量(矩阵)¨1l,视频序列可以表示为3阶张量,功能磁共振成像(FunctionalMagneticResonanceImaging,朋RI)序列可以表示为4阶张量¨引.处理这类数据常用的方法是将张量样例向量化,但这会破坏数据的空时结构,导致维数灾难和小样例问题的产生【l3|.近年来,张量代数已成功地应用在模式识别、计算机视觉和信号处理等领域中.数据集中的所有张量样例可由一个更高阶的张量来表示.当数据集中的样例含有丢失元素时,数据张量是不完全的.根据张量万方数据的部分采样来恢复它,称此问题为张量补全问题.对于不完全张量,如果没有任何信息,补全它是不可能的.实际问题中的张量在各个模式上通常是低秩或近似低秩的.如果知道完全张量在各模式上的秩,那么可以得到它的Tucker分解(或逼近).假定一个,×,×…×,的J7、r阶张量A可以表示为低维Tucker分解,其核心张量的维数为r×r×…×r.由Tucker分解可知张量的自由度为r“+rⅣ,一rⅣ(r+1)/2.当r《,Ji2<Ⅳ<,时,张量A的自由度远远小于它的元素总数目,.只要张量的采样数目大于它的自由度,就有可能完全恢复它.本文基于Tucker分解,提出张量补全算法,并将其应用到人脸识别上.2张量代数张量又称为多阶阵列,是向量和矩阵的高阶推广.J7、r阶张量A∈R^则z”一划w可由Ⅳ个指标来表示,其(i。,i:,…,0)元素表示为A。也….¨本文遵循Kolda和Bader的符号描述,简单介绍张量代数的基本知识[141.定义l张量A,皿∈刚m””州“的Hadamard积为A.木B,其(il,i2,…,“)元素为A一:,…妇噩油,…西.定义2张量AER”,2””。啊的Frobenius范数为IIA0=(∑越忠.…晰)寺.11t12,…,●Ⅳ张量A,口∈R,l州2””划“的距离为0A一届¨定义3张量A∈Rj”如””刈”的n模式展开(又称为n模式矩阵化)为矩阵ⅣA㈤∈R’n砚‘,其中Ⅳ^一1(A㈤)¨=A附一曲,歹=1+∑(以一1)nL.定义4张量A∈R^地”“刈“的n秩为其n模式向量张成空间的维数,记为.,。=rank。(A).定义5张量A∈R”,2””。h与矩阵U∈R厶。k的n模式积为一个,l×…×厶一l×L×厶+l×…×,Ⅳ的张量,用A×。u表示,其(i。,i:,…,i剃,J,i州,…,iⅣ)元素定义为,^(A×。u)i1.¨..。。。“。小…,抽=∑Al'i:,…妇%。.‘n2l定义6张量A∈R,lx。2”一刈“的Tucker分解为A=C×1U‘¨…×ⅣU‘Ⅳ’+8,其中C∈R7l。如”‘。“2期史加荣等:张量补全算法及其在人脸识别中的应用为核心张量,8∈R,1州2”一州Ⅳ为噪声张量,模式矩阵u¨’∈R。“刈“为列标准正交矩阵,L≤L,,I=1,2,….Ⅳ.定义7张量A∈R”。z””划“的PARAFAC分解为A=U‘1’。…。U‘Ⅳ’+s,其中£,‘Ⅳ’∈R’一。‘,8∈R,1x,2”~刈“为噪声张量,‘。’表示外积.作为Tucker分解的特例,PARAFAc分解没有考虑不同模式之间的交互作用.Tucker分解又称为张量的秩(.,,,^,…,^)逼近,可以通过对张量的奇异值分解进行剪切可得到,但这种方法一般来说不是最优的‘12’15—6|.3张量补全问题现在考虑含有丢失元素的张量A∈R,l×,2”“埘w.令Ⅱ和日为两个指示张量:如果Al'i:.…,iⅣ丢失,贝0皿:.,屯。….抽=O,皿。,i:,…,抽=l;否则J匮。.屯.…,如=l,E.,屯。….抽=O.希望根据张量的低秩信息来补全张量.当张量A具有PARAFAC低秩分解时,可以利用交替式最小二乘法来补全张量(PositiveTensorcompletion,PTc)Ⅲo.当它的n秩为L(^<L)时,文献[18]提出低秩张量补全算法(Low.RankTensorCompletion,LRTC).本文基于张量的Tucker分解来补全张量(TuckerTensorCompletion,TTCl.当张量不含丢失元素时,考虑它的最优Tucker分解.为此,需求解下列优化问题:min八C,£,‘¨,…,U‘Ⅳ’)=0A—C×I£,‘1’…×Ⅳ£,‘Ⅳ’Il2,s.t.C∈R^xJ2”‘。JⅣ,(1)U‘”’∈R。n。L,(U‘”’)’U‘4’=EJ。,n=1,2,…,Ⅳ;其中,层J^表示L阶单位矩阵.当模式矩阵u¨’,£,‘孙,…,U‘Ⅳ’给定时,目标函数以C,£,‘¨,…,U州’)关于张量C为凸二次型,故最优张量C=A×1(U‘1’)’…×Ⅳ(U‘Ⅳ’)7.此时,张量A的最优逼近为(A×l(U‘1’)’…×Ⅳ(U‘M)’)×lU‘¨…×『vU‘m.因此,优化问题(1)等价于如下优化问题:maxg(£,‘¨,…,U‘Ⅳ’)=fIA×l(u‘1’)’…×Ⅳ(U‘椰)’I|2's.t.u(“)∈Rk“,(【,‘“’)’盯“’=目。,n=1,2,…,Ⅳ上述问题的目标函数和约束均不是凸的,直接求解比较困难.由于它是块优化问题,通常采用交替式方法求解模式矩阵uh),,I=1,2,…,Ⅳ.当Ⅳ一1个万方数据模式矩阵u‘¨,…,U‘”¨,U‘”¨,…,U‘Ⅳ’给定而u抽’未知时,目标函数g(u‘¨,…,£,‘Ⅳ’)=Il(u‘“’)TA(。)%02,其中瞩=£,‘Ⅳ’@…ou‘“1’ou‘”1’o…@U¨’,‘@’表示Kronecker积.最优矩阵U¨’可由A㈩%的前,。个最大的奇异值对应的左奇异向量组成.交替更新模式矩阵,直至满足终止条件,便可得到张量的Tucker分解.4张量补全算法对于含丢失元素的张量,不能对其进行高阶奇异值分解,更不能得到它的Tucker分解.为了补全张量,先初始化张量A的丢失元素,进而得到张量丑对张量B进行Tucker分解,得到它的Tucker逼近张量D,根据张量刀更新张量口,即届:=匠木Ⅱ+D.jl:皿由于张量的Tucker分解是块优化问题,所以可以采用下列方式来简化问题:固定Tucker分解中的J7、r一1个模式矩阵,求解另外一个最优的模式矩阵.按照上述过程,重复更新张量皿显然,张量A的未丢失的元素与张量口的相应元素相同.采用局部相对标准误差来评价张量D的逼近性能:麟肚悝嵩嵩尸=嘴帮,(2)指标职sE越小越好.若采样充分,则当职sE=0时,张量A得到了精确的恢复.在迭代过程中,当衄sE下降比较缓慢时,可终止迭代.下面给出张量补全的算法流程.算法1张量补全算法(TTC)step1初始化张量A的丢失元素,得到完全张量B;初始化£,¨)∈Rk叫n为列标准正交矩阵,n=2,…,Ⅳ;初始化局部相对标准误差£JRS哟和容许误差&置,l=1.step2G=B×1(U‘1’)’…ר(U‘剃’)’×。+1(U‘剃’)’…×_lv(U‘Ⅳ’)T.step3张量G按n模式展开成矩阵G㈤,对协方差矩阵G(。)G:j)进行特征分解,前L个最大的特征值对应的特征向量组成模式矩阵Un).step4口=(G×。(£,‘8’)7)×1Ⅳ‘1’×…×,v£,(m.B:=匠球日+D.冰Ⅱ女口果,l<^f,n:=n+l,转step2.如果n=Ⅳ,则按照式(2)计算职SE.258模式识别与人工智能24卷当从s哟一豫sE<占时,终止算法,输出张量届;否则,置衄Js脚=衄SE,n=1.在上述算法中,张量口与其Tucker逼近张量D之间的距离随着模式矩阵的更新而单调递减,即有如下定理.定理1若在算法1的某次张量更新过程中,张量B的Tucker逼近为张量D,在其下次张量更新过程中,张量丑’的Tucker逼近为张量D’,则有IIB—DII≥』B7一D’¨证明对于张量B,固定模式矩阵酽¨,…,轳H’,栌¨’,…,轳m,根据算法1的step2和step3可求得最优模式矩阵护n.显然,矩阵轳‘’与张量C=B×。(栌1’)7…×Ⅳ(酽Ⅳ’)’是下列问题的最优解:minII口一C×l栌1’…×H轳¨’×i铲i’×…酽Ⅲ’…×Ⅳ扩椰02,U‘i’ER协^,(U‘i’)7U‘i’=E¨所以,张量B更新为口7=匠,l=Ⅱ+D.木日,其中张量D=C×l轳1’…×Ⅳ栌Ⅳ’为张量B的Tucker逼近.此时有0口’一D0=II(皿水日+D.:I=Ⅱ)一(D.水口+D.丰日)0=0(曰一D).木Ⅱ0≤IIB—D¨在下次更新过程中,固定模式矩阵轳¨,…,护n,驴“21,…,扩m,更新模式矩阵U(川),为此需求解min|l曰’一C×l扩1’…×i护‘’×川U‘Ⅲ’×m驴m’…×^r驴Ⅳ’||2,£,‘i+1’∈R‘+1。几1,(U‘Ⅲ’)1U‘Ⅲ’=层Jl+1.IIB7一D’0≤lI(曰’一C×1栌¨…×i轳‘’×Ⅲ轳川’×m护m’…×Ⅳ扩肿0=0口’一D|I≤II皿一Dn证毕.由定理l可知,衄SE随着模式矩阵的更新而单调下降下面讨论Ⅳ个模式矩阵均更新一次的计算复杂度.为此,先考虑矩阵un’未知而其余的Ⅳ一1万方数据棋式矩阵巴知情彤F的计算复杂度.为表述简使,记,(o)=1,,(1i})=兀,i,J(J|})=n以,.|}=l,2,…,N.张量G的计算复杂度为。Ⅲ州薹器+乞塞。器儿模式矩阵u抽’的计算复杂度为o(,2(,n+.,(Ⅳ)/L)),张量D的计算复杂度为叩(Ⅳ)(厶+煮者%)]'张量B的计算复杂度为D(,(Ⅳ)).所以,所有模式矩阵均更新一次的计算复杂度为删,c耋务+Ⅳ薹褊,+轴.叩c州Ⅳ+薹c芝器+妻。塞。耥小5实验分析在实验中,所提供的数据张量X∈R,l””灯w不含丢失元素.若张量X的n模式秩为.,。或近似为L,,l=1,2,…,Ⅳ,则它的自由度d=n^+∑¨厶一掣].记张量五的采样数目为口,则只有g用大于等于1时,才有可能根据采样恢复张量.假定对张量尺进行随机采样,这样就得到不完全张量A对于A,采用最简单的方法初始化丢失元素,即令口=A球日,由于张量X事先已知,所以采用相对标准误差来度量算法的逼近性能:脚=埒斧,RSE越小越好,当RsE=0时,张量A得到精确的恢复.下面在合成数据和实际数据(人脸数据)上来验证张量补全算法的有效性和可行性.5.1合成数据按照两种方式来随机合成数据,第一种方式是工=P‘1’。…。P‘m,其中P‘“’∈R‘”,n=l,2,…,Ⅳ;第二种方式是石=S×1P‘1’×2P‘2)…×JvP‘M,其中JS∈R。1。J2。…。7Ⅳ,P‘“)∈R7n。厶,n=1,2,…,Ⅳ.假设Pn’和S的元素均由相互的标准正态分布随机生成.对张量X进行随机采样,得到不完全张量A下面给出4个例子.s.t.C∈RJI。J2”’。h.s.t.C∈R^。如”’。JⅣ.设张量B’的最优Tucker逼近为D’,则有2期史加荣等:张量补全算法及其在人脸识别中的应用例1例2例3例4张量X按照第一种方式随机生成,Ⅳ=张量置按照第一种方式随机生成,Ⅳ=结果如表1和表2所示.从表1和表2的性能比较可以看出,PTc算法非3,厶=,2=,3=50,r=10.4,,l=,2=,3=厶=30,r=10.常不稳定;虽然LRTC算法相对稳定,但尺SE值非常大;TTc算法的尺.sE值接近于0,同时又比较稳张量X按照第二种方式随机生成,Ⅳ=张量晨按照第二种方式随机生成,Ⅳ=定.因此,在上述3种算法中只有TTC几乎比较完美地补全了张量.PTC算法只适用于特殊的低秩张量;LRTc是一种松弛算法,它受采样数目、张量的秩以及参数选取的影响很大.在以后的试验中不再将这两种算法与TTc进行比较.表3给出例3和例4试验结果,可以看出张量也得到几乎比较完美的恢复.3,,。=厶=L=50,^=以=以=10.4,厶=,2=,3=,4=30,^=厶=厶=厶=10.对于相同的采样数目g,重复执行5次试验,用RsE的平均值及标准差来评价算法的性能.对于前两个例子,将TTC算法与PTC和LRTC进行比较,试验表1Tablel例l在3种算法下的性能比较forExamplelPerfbrmancecomparisonamong3a190rithms表2Table2例2在3种算法下的性能比较Performancecomparisonamong3algorithmsforExample2表3Table3例3和例4在TTC算法下的试验结果ExperimentalresultsfbrExample3andExample4with7I’11C5.2人脸识别在ORL和Yale人脸数据库上进行实验.ORL似低秩的.在ORL中,取^=厶=10,^=60;在Yale中,取.,。=以=10,厶=30.对每个数据张量进行随机采样,再利用算法l(,I’rrC)进行补全.待张量补全后,训练集和测试集规定如下:在0RL中,每个人的前5幅图像属于训练集,其余的5幅图像归为测试集;在Yale中,每个人的前6幅图像为训练集,其余的5幅图像为测试集.最后用最近邻法对人脸数据进行分类.对于相同的采样数目q,将试验重复5次,最终用相对标准误差(R.sE)和识别人脸数据库包括40个人的人脸图像,其中每个人有10幅不同的图像.这些图像在不同时间获取,具有不同的表情和面部细节,而且稍许倾斜(不超过200).Yale人脸数据库包括15个人的人脸图像,其中每个人有ll幅不同的图像.它们是具有不同表情、遮掩和光照条件的正面图像.为计算方便,这两个数据集的每幅图像均经下采样成为64×64的图像.每个人脸数据库的图像都可以形成3阶张量.ORL的张量数据的维数为64×64×400,Yale的张量数据的维数为64×64×165.人脸数据集通常具率(础)来评价算法的性能,如表4和表5所示.为了便于比较,现给出对原人脸数据张量直接使用最近邻法进行分类的结果:0RL的识别率为O.875Yale的识别率为0.7733.0,有较大的冗余,可认为数据张量在每个模式上为近从表4和表5可以看出,随着采样数目的增加,万方数据模式识别与人工智能24卷尺sE会随之碱小,础会随之增加;尺sE和础的标准差相对比较小,这说明算法具有好的稳定性;当的识别率仅有约1%的误差与表3相比.表4和表5的船E比较大,这是因为表3的数据不含噪声.而表4和表5的数据含的噪声比较大q/d=7时,订c算法所得到的识别率与全部采样下襄4Table4TTc算法在0RL上的实验结果Ex口er…nIBl…1t3nf1TC5on0RL676lx10’40t162±406×1044/d40l382±370x10。O月距0127l±607×10。O8470±0011501203±2刷8340±0叭2408550±00106O8640±O0096表5Table5E…l…IaI…lts5TTc算法在Yalc上的实验结果brTTC。nYale602164±0004907493±n0273702020±0001907653±00223叮/d403016±0022006693±O0494船F础02338±0006207173±0们74当采样概率为ol时,图1和图2分别给出两个数据集的部分原始图像与相应的采样图像和补全图像,其中(b)是采样图像(来采样点用白像素表示)通过比较原始图像与补全图像.可以得出如下的结论张量补全算法较好地恢复了人脸的轮廓;由于采样率相对比较小,眼镜等部分噪声得到有效的抑制(a)原始图像圈銎錾噩莲堑(b)采样图像b)sa“pledImB舻s(c)补全翱像c)coopleted唧ag。s囤2采样概率为0l时Yale的原始人脸图像与补全图像对比F192a)Orl91nml“ages(a)原始图像圈]翌要噩殛(b)采样图像b)sam—edl“age8a)0“g…al~p8Co”p8^…bet……‘91naIlm89…M…pl”gand…pIetedonhcep。obablIlty“0lYale(c)补全目像c)co“pleted圈1lmages6结束语本文研究了张量补全问题对于不完全数据张量,基于Tucker分解提出张量补全的算法,并从理论上证明在算法的迭代过程中估计张量与其Tucker逼近张量的距离是单调递减的张量补全算法为张采样概率为ol时ORL的厚始人脸图像与补全图像对比F镕lCo“p8risonbet…orlgmaland…pletedhce…妒…th…pIl”gp”babllnyd0J。n0RL万方数据2期史加荣等:张量补全算法及其在人脸识别中的应用26l量信号采样提供了一种新方法.实验结果表明了张量补全算法在补全张量和人脸识别上的可行性与有效性.张量补全问题的理论与应用仍值得进一步研究.参考文献[1]0kat蛐iT,DegIlchiK.0ntlIewibergAIgoritIImforMa血F扯tori-枷anintIIePl汜sence0fMissingComponents.Int锄ationalJoumal0fComputerVision,2007,72(3):329—337[2]chenPei.0pIiIlliz“0nAlgoritlIms蚰subsp扯鹄:Re“sitingMis8ingDataProbl咖inhw—R蛐kMgtrix.hltemali∞alJo哪aIofComput-erVision,2008,80(1):125一142[3]KoIallT,R鹕mussenc.sp娟0temporalInpaiHtingforRecoveringktureM叩sofOcdudedBuildingFacad髑.皿EETr如sonImageProc∞8ing,2007,16(9):2262—227l[4]Garcia.LaencinaPJ,sancho-Gome互JL,FigueiI鹳-VidaIAR,etdZ.KN舶瑚tNeigllh岫witllMutualInf0册ationf打simultaneou8Cl哪ification锄dMi鹞ingDataImpu叫on.N叫roc嘲”tiIlg,2009,72(7/8/9):1483—1493[5]Farh删【gfamA,KIIrganbL,DyJ.Imp舵t0fImput860n0fMi驰ingValuesonClassificationE眦forDisc硪Data.Patt锄Reco驴i-d∞,2008,41(12):3692—3705[6]Vid8lR,Tr硼R,HartkyR.Mul6hmeM撕onSegment撕蚰widlMissingDataUsingP嘶erFactori髓£ion孤dGPCA.Int唧ati∞alJoumal0fComputerVisi∞,2008。79(1):85一105[7]c删fId爸sEJ,RechtB.ExactM圳血completionviaConvex0p6mi・躔tion.FoundationsofComputationalMathematics,2009,9(6):717—772[8]c蚰dbEJ,Te惦nceT.ThePdw盯0fconv麟Rel懿“0n:Near-0p-timalMa试xCompletion.IEEE7rm璐们Inf0咖“佣neory,2010,56(5):2053—2080万方数据[9]caiJiamIIg,c蚰如sEJ,Sh蚰zouwei.AsingIll盯VaIue强他slI-0ldingA190蒯珊五叫Matri】【Completi蚰.SIAMJ叫mal∞O—mi盟・tion,2010,20(4):1956—1982[10]c∞dhEJ,Pl蛐Y.Mgtrixcompletionw油Noi辩.PTDcoftlleIEEE,2010,98(6):925—936[11]Y觚Hui,Jinzhong,Y龃gJin鄹m.Non—NesativeTwo—DimensionalPrincipalCnmponentAnalysis柚dItsAppHc撕仰t0FaceReco口i—ti帆.PattemReco印iti帆锄dA眦cialIntelligence。2009,22(6):809—814(inClline∞)(严慧,金忠,杨静宇.非负二维主成分分析及在人脸识别中的应用.模式识别与人工智能,2009,22(6):809—814)[12]wangH硼铲heIlg,AhujaN.A1钿s∞Approximati仰App啪chtoDi啪心。础酊Reducti011.Intemati仰alJoumal0fC咖puterVision,2008,76(3):217—229[13]Y如shuicheng,xuDong,Y肌gQi蛐g,et出.Multilin髓rDi8一函min明tAnalysi8forF∞eR∞唰tion.IEEE1'砌s∞Image胁c∞sing,2007,16(1):212—220[14]KoldaTG,BaderBw.1hsorD∞咖p∞itio咕如dAppIic撕∞8.SIAMReview,2009,5l(3):455—500[15]I丑tllauwerLD,Mo∞BD,V蛐dewaueJ.AMlllmine盯singul耻ValueDecolnp鸺ition.SIAMJoumal帆Ma晡xAnalysis肋dAppb—catiom,2000,2l(4):1253一1278【16]L砒hauwerLD,MoorBD。V柚dewa】leJ.0n山eBestRank・l蚰dRank一(焉,恐,…,h)Ap鲫D】【imati帆0fHigl"r-ODderT∞&∞.S工AMJ叫malonM曲奴Analy8is蚴dApplicatiolls,2000,2l(4):1324一1342[17]TomasiG,BmR.PARAFAc粕dMissingVaI吣.ch锄om试c8andInteUi酽mtLabtH咖IySy8tems,21006。75(2):163一180[18]uuJi,MtIsialskiP,Ⅵ‰kalP,甜口f.Tensorcompleti叫forE出-matingMissiIIgValu镐iIlVisualData//Procoftlle20tlIIEEEhI-悃mti∞alConfe陀nce仰C伽聊JterVision.Kyoto,Jap锄,2009:2114—2】2l张量补全算法及其在人脸识别中的应用
作者:作者单位:刊名:英文刊名:年,卷(期):
史加荣, 焦李成, 尚凡华, SHI Jia-Rong, JIAO Li-Cheng, SHANG Fan-Hua
西安电子科技大学智能信息处理研究所智能感知与图像理解教育部重点实验室,西安,710071模式识别与人工智能
PATTERN RECOGNITION AND ARTIFICIAL INTELLIGENCE2011,24(2)
本文链接:http://d.g.wanfangdata.com.cn/Periodical_mssbyrgzn201102014.aspx