预览加载中,请您耐心等待几秒...
1/3
2/3
3/3

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

基于加权矩形积分图的人脸表情识别研究 摘要 本文基于加权矩形积分图的人脸表情识别研究,通过对人脸的特征提取和分类识别,实现了对不同表情的自动识别和分类。首先介绍了人脸表情识别的研究背景和意义,然后详细阐述了加权矩形积分图的原理和实现方法,包括特征提取和分类识别两个方面的内容。最后,通过实验证明了本方法的可行性和有效性,为后续的人脸表情识别研究提供了新的思路和方法。 关键词:加权矩形积分图,人脸表情识别,特征提取,分类识别 Abstract Thispaperisbasedontheresearchoffacialexpressionrecognitionusingweightedrectangleintegralimage.Byextractingthefeaturesoffacialexpressionandclassifyingthem,weachievedautomaticrecognitionandclassificationofdifferentexpressions.Firstly,theresearchbackgroundandsignificanceoffacialexpressionrecognitionwereintroduced.Then,theprincipleandimplementationmethodofweightedrectangleintegralimagewereelaborated,includingfeatureextractionandclassificationrecognition.Finally,throughexperiments,thefeasibilityandeffectivenessofthismethodwereproved,providingnewideasandmethodsfortheresearchoffacialexpressionrecognition. Keywords:weightedrectangleintegralimage,facialexpressionrecognition,featureextraction,classificationrecognition 1.引言 人脸表情识别是计算机视觉领域的一个重要研究方向。在人机交互、情感分析、社交网络、生物识别等方面都有广泛应用。人脸表情包含的信息主要有两方面,一是基本的识别信息,即面容特征;二是情感信息,即表情的丰富意义。因此,人脸表情识别的研究意义非常重大。 传统的人脸表情识别方法通常基于灰度图像和局部特征提取方法,如Haar、Hog、Lbp等。但这些方法在处理人脸表情时存在着很多问题,如原图像数据无法满足大规模的数据处理要求,特征提取的计算量大等。因此,本文提出了一种基于加权矩形积分图的人脸表情识别方法。 2.加权矩形积分图的原理 加权矩形积分图被广泛应用于人脸表情识别领域,其核心思想是通过积分图像实现特征的快速提取和计算,使人脸区域内部分块以及不同尺度的特征同时得到。加权矩形积分图基于图像积分的思想,即在图像中预先计算各个像素点的累加和,由此生成一个积分图。积分图上任意计算矩形内的和可以用积分图的四个顶点之和表示,这种方法大大简化了特征的计算。 加权矩形积分图的计算公式如下: IntegralImage(X,Y)=∑ipixels(x,y)(x≤X,y≤Y) 其中,pixels(x,y)表示图像中特定点的像素灰度值,IntegralImage(X,Y)表示图像中位置在(X,Y)的任意矩阵的积分图值。 3.加权矩形积分图的实现方法 本文使用的特征提取和分类识别方法分别基于加权矩形积分图的思想。 3.1特征提取 本文使用了Adaboost算法训练分类器,训练数据集包含特定表情的人脸图像和非人脸图像。首先按照图3中的方式计算人脸和非人脸图像的积分图像,然后计算每个人脸和非人脸图像的Haar特征值,如图4所示,得到一个N×M的特征矩阵。 图3积分图像 图4Haar特征值 3.2分类识别 基于特征提取得到的Haar特征值矩阵,本文使用Adaboost算法训练分类器。Adaboost(AdaptiveBoosting)算法是一种集成学习方法,是决策树的集成。该算法结合了不同特征向量的分类器,并在每次迭代中根据先前分类器的错误率对样本权重进行适当调整,得到最终分类结果。通过多次迭代,最终将不同特征向量集成,得到一个鲁棒性较强的分类器。 4.实验结果 实验数据集包含Cohn-Kanade(CK)和EmoReact,两个表情数据集。在CK数据集上,本文方法的准确率达到了85.23%;在EmoReact数据集上,准确率达到了78.89%。与传统的局部特征提取方法相比,本文方法在准确率上有了显著提高,且准确