预览加载中,请您耐心等待几秒...
1/2
2/2

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

基于多尺度卷积特征融合的行人重识别 摘要: 行人重识别是一个具有挑战性的问题,因为它涉及到许多问题,如目标尺度变化,姿势变化,遮挡和光照变化。这篇论文提出了一种基于多尺度卷积特征融合的行人重识别方法。我们首先通过特征提取网络提取全局和局部特征,然后使用多尺度卷积处理这些特征以增强特征表示能力,最后使用特征融合模型将多个特征合并并进行分类。实验结果表明,我们的方法相对于最新的行人重识别方法,具有更好的准确性和鲁棒性。 关键词:行人重识别,多尺度卷积,特征提取,特征融合 引言: 随着计算机视觉技术的不断发展,行人重识别逐渐成为一个热门的话题。行人重识别旨在从不同的摄像头或时间段中重识别相同的行人。这项任务具有很大的实用性,能够应用于公共安全、视频监控等领域。 然而,行人重识别任务面临着许多挑战,其中包括目标尺度变化,姿势变化,遮挡和光照变化等问题。为了解决这些问题,许多研究者已经提出了各种不同的方法。其中,卷积神经网络已经在行人重识别领域中被广泛应用,因为它们能够从图像中提取丰富的特征表示。 然而,单一的特征提取方法往往无法充分利用图像中的所有信息。多尺度卷积可以在不同的尺度上提取特征,从而能够更好地捕获目标的细节信息,同时也能够减轻由于姿势和光照变化引起的一些问题。此外,将多个特征合并也可以提高特征表示的能力。因此,本文提出了一种基于多尺度卷积特征融合的行人重识别方法。 方法: 我们的方法分为三个主要部分:特征提取、多尺度卷积和特征融合。 特征提取: 我们采用了一个提取特征的深度卷积神经网络。我们使用ResNet50网络来提取全局特征,同时使用局部网络GCN来提取每个身体部位的局部特征。全局特征和局部特征都是128维的。 多尺度卷积: 我们使用了两种卷积方法来处理全局和局部特征:一种是传统的1×1卷积,另一种是多尺度卷积。 其中多尺度卷积分为三个阶段: (1)使用3×3的卷积核对输入进行卷积。 (2)使用5×5的卷积核对输入进行卷积。 (3)将输出结果汇总并使用1×1的卷积核进行平滑。 特征融合: 我们将全局和局部特征,以及不同尺度的卷积特征进行融合。我们采用了一种基于融合函数的方法来对特征进行融合。这种方法能够有效地将不同尺度的特征合并到相同的空间上,从而提高特征表示的能力。 实验结果: 我们在Market-1501和DukeMTMC-reID两个数据集上进行了实验。实验中使用的评价指标为CumulativeMatchingCharacteristic(CMC)和meanaverageprecision(mAP)。结果表明,我们的方法在两个数据集上都比当前最先进的行人重识别方法具有更好的准确性和鲁棒性。 结论: 本文提出了一种基于多尺度卷积特征融合的行人重识别方法,并在两个数据集上进行了实验证明了该方法的有效性。该方法在处理行人重识别中的问题方面具有很好的效果。该方法还可以在其他任务中使用,如物体识别、场景分类等。