预览加载中,请您耐心等待几秒...
1/3
2/3
3/3

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

基于深度特征与传统特征融合的行人再识别研究的开题报告 一、选题背景 随着科技的进步和城市化的发展,人们对于安防领域的需求日益增长,其中之一就是针对行人的识别及跟踪。行人再识别,即从不同场景的图像中,通过对之前采集的图像进行比对、匹配和分类,达到识别不同行人的目的。行人再识别早期采用手工提取特征的方式,但是由于手工特征难以表示人体复杂的形态变化和纹理变化等因素。因此,使用深度学习的方法来提取及学习特征逐渐成为了行人再识别研究的主要方法。 然而,深度学习方法也存在一些问题,比如过拟合、参数冗余、训练不稳定等。因此,本文引入了传统特征的知识,设计了一种基于深度特征与传统特征融合的行人再识别方法,旨在更好地提升行人再识别的准确率和鲁棒性。 二、研究内容与方法 本文主要研究内容是基于深度特征与传统特征融合的行人再识别方法。具体而言,研究的方法是基于深度卷积神经网络(DeepConvolutionalNeuralNetwork,DCNN)来提取行人图像中的深度特征,同时采用传统的局部二值模式(LBP)特征来提取图像的纹理特征。通过将两种特征进行融合,提升行人再识别的准确率和鲁棒性。研究方法如下: 1.数据集准备 选用大规模人体数据集Market1501作为实验数据集。数据集中总共包含超过32,000张行人图像,其中,训练图像为12,936张、测试图像为19,732张,每张图像中有行人的标注框。 2.提取卷积神经网络特征 采用知名的卷积神经网络模型ResNet50作为特征提取器。通过基于训练数据集的有监督训练,提取行人图像中的深度特征。训练好的模型可以有效提取行人图像中的边缘、角点、纹理等信息。 3.提取局部二值模式特征 局部二值模式(LBP)是一种经典的纹理描述子,对图像中的纹理信息具有很好的描述。因此,通过对行人图像的每个像素点选择相邻8个像素点作为邻域,比较相邻像素点的灰度大小,生成二进制码。通过将所有像素点生成的二进制码拼接成一个长向量,即可得到整张图像的LBP特征。 4.特征融合与再识别 将深度特征与LBP特征进行拼接融合,得到一个全新的特征向量,并采用欧氏距离作为相似度度量指标,进行行人再识别的分类和匹配。 三、创新点 1.提出了一种基于深度特征与传统特征融合的行人再识别方法,融合了深度特征的丰富语义信息和传统特征的纹理信息,提高了行人再识别的精度和鲁棒性。 2.采用ResNet50卷积神经网络模型提取深度特征,能够有效提取行人图像中的边缘、角点、纹理等信息,并具有很强的适应性和泛化性。 3.采用经典的局部二值模式特征提取技术,可以有效地描述图像中的纹理信息。 四、预期结果 本文预期通过实验验证基于深度特征与传统特征融合的行人再识别方法,在Market1501数据集下取得较好的行人识别效果。相较于仅使用深度特征的方法和仅使用传统特征的方法,所提出的融合方法可以在行人再识别的准确率和鲁棒性上得到显著的提升。 五、结论 本文采用了基于深度特征与传统特征融合的行人再识别方法,结合了深度学习和传统图像特征提取方法的优点,可以提高行人再识别的准确率和鲁棒性。本文的研究成果可以为人体行为分析、城市安防等领域提供可靠的技术支持,具有实际应用意义。