基于面部运动单元的多层融合表情识别方法研究

基于面部运动单元的多层融合表情识别方法研究

ID:35071328

大小:4.30 MB

页数:78页

时间:2019-03-17

基于面部运动单元的多层融合表情识别方法研究_第1页
基于面部运动单元的多层融合表情识别方法研究_第2页
基于面部运动单元的多层融合表情识别方法研究_第3页
基于面部运动单元的多层融合表情识别方法研究_第4页
基于面部运动单元的多层融合表情识别方法研究_第5页
基于面部运动单元的多层融合表情识别方法研究_第6页
基于面部运动单元的多层融合表情识别方法研究_第7页
基于面部运动单元的多层融合表情识别方法研究_第8页
基于面部运动单元的多层融合表情识别方法研究_第9页
基于面部运动单元的多层融合表情识别方法研究_第10页
资源描述:

《基于面部运动单元的多层融合表情识别方法研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、中文图书分类号:TP391密级:公开UDC:004学校代码:10005工程硕士学位论文M.E.DISSERTATION论文题目:基于面部运动单元的多层融合表情识别方法研究论文作者:刘爽侨领域:计算机技术指导教师:贾熹滨副教授论文提交日期:2016年6月25日UDC:004学校代码:10005中文图书分类号:TP391学号:S201307134密级:公开北京工业大学硕士专业学位论文(全日制)题目:基于面部运动单元的多层融合表情识别方法研究英文题目:RESEARCHONMULTI-LAYERFUSIONEXPRESSIONRECOGNITIONMETHODBASE

2、DONACTIONUNITS论文作者:刘爽侨学科专业:计算机技术研究方向:计算机应用技术申请学位:工程硕士专业学位指导教师:贾熹滨副教授所在单位:计算机学院答辩日期:2016年6月授予学位单位:北京工业大学独创性声明本人声明所呈交的论文是我个人在导师指导下进行的研究工作及取得的研究成果。尽我所知,除了文中特别加以标注和致谢的地方外,论文中不包含其他人已经发表或撰写过的研究成果,也不包含为获得北京工业大学或其它教育机构的学位或证书而使用过的材料。与我一同工作的同志对本研究所做的任何贡献均已在论文中作了明确的说明并表示了谢意。签名:刘爽侨日期:2016年6月1日关

3、于论文使用授权的说明本人完全了解北京工业大学有关保留、使用学位论文的规定,即:学校有权保留送交论文的复印件,允许论文被查阅和借阅;学校可以公布论文的全部或部分内容,可以采用影印、缩印或其他复制手段保存论文。(保密的论文在解密后应遵守此规定)签名:刘爽侨日期:2016年6月1日导师签名:贾熹滨日期:2016年6月1日摘要摘要在人类生活和交际中,面部表情是传达人们感情变化的重要方式之一。使用计算机学习并推断人的表情状态成为了视觉计算领域的重要研究方向。研究者力求寻找到有效的情感计算技术,实现人机之间似人类的情感沟通。然而,现实环境下的人脸表情受不同种族、肤色、年龄

4、等因素影响,加之面部不同区域对表情的形成具有多样性和随机性。因此,面部表情识别的研究仍然存在巨大挑战。本文重点研究不同表情描述和分类器性能的互补性,构建健壮的面部表情识别模型。在现有研究中,利用生理解剖学角度提出的面部运动单元(AU)技术是指导表情计算研究的主流解决方法之一。然而,目前所提出的单一表情特征和分类器很难对所有表情同时达到最佳识别状态,无法保证AU识别和表情识别的准确性。因而,本研究提出以AU为基元的表情识别方法,充分利用不同特征、分类器在AU表述识别中性能的互补性,通过融合方法提升人脸表情的识别率,克服单一特征或分类器无法满足对不同AU单元都具有

5、良好表现性能的缺陷,提高对复杂表情的识别能力。本文在此背景下提出了一种基于AU分块融合的表情识别模型,验证了多特征和多分类器之间对表情识别的互补性,并分析AU在不同表情识别中的关联关系。本文的主要工作和创新点如下:1、提出一种基于AU分块融合的表情识别多层计算模型。为区分面部不同区域在表情识别中的贡献差异,客观描述人脸表情的面部运动状态,本文采用面部编码思想,将人脸图像分割成AU子块,引用四种特征提取方法和三种分类器实现AU识别,利用Stacking融合框架实现基于AU预测的面部表情识别算法。在CK和Jaffe两种公共数据库上进行实验,多种评价指标显示,该多层

6、融合的表情计算模型对不同数据库样本表现出良好的稳健性。2、验证基于AU多特征和多分类器对表情识别能力的互补性。本文采用Kappa-error图解分析方法,分别对典型的表情特征组合和分类器组合进行了融合性能分析。进一步设计了三组对比实验,全面分析整脸与面部子块、多特征与单一特征、多分类器与单一分类器对面部表情识别的效果和作用。实验表明,多特征和多分类器之间性能具有互补性,融合后的面部表情识别方法可消除单一特征或分类器的局限性。3、提出利用关联规则进一步挖掘AU块在表情识别中的权值,建立基于AU加权融合的表情识别模型。本文选用几何特征对AU子块进行特征提取,通过分

7、类器训练出每类AU的表情预测标签,采用Apriori算法挖掘AU预测表-I-北京工业大学工程硕士专业学位论文情与目标表情的强关联关系,生成AU权值矩阵,并与AU预测概率建立六种表情识别模型。在CK公共数据库上的实验证明,相比目前主流的研究方法,基于关联规则学习的AU权值调优算法具有更高的识别正确率和性能优势。关键词:运动单元预测;多层融合框架;关联规则;面部表情识别-II-AbstractAbstractInhumanlifeandcommunication,facialexpressionisoneofthemostimportantmethodstocon

8、veyhumanbeingemotio

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。