预览加载中,请您耐心等待几秒...
1/3
2/3
3/3

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

基于多层次图像分割的物体级显著性识别 摘要 物体级显著性识别是计算机视觉与图像处理领域中的研究热点之一。本文提出了一种基于多层次图像分割的方法来进行物体级显著性识别。该方法通过对输入图像进行多尺度分割,采用二分类方法对每个分割区域进行显著性评估,最终将评估结果在不同尺度中进行合并,获得物体级显著性识别的结果。实验结果表明该方法具有较好的识别效果以及鲁棒性。 关键词:物体级显著性识别;多层次图像分割;二分类方法 引言 随着计算机技术的发展,图像处理技术在很多领域得到了广泛的应用。而物体级显著性识别作为图像处理中重要的研究方向之一,其在计算机视觉、图像检索、目标跟踪、自动驾驶等领域中都有着广泛的应用前景。 物体级显著性识别是指对图像中显著物体进行有效识别的过程。在这个过程中,需要对图像中的物体进行分割,获取每个区域的特征信息,进而进行显著性评估。 传统的物体级显著性识别方法主要是基于手工设计的特征进行分析,但是这些方法受到图像质量和分割算法的影响较大。近年来,随着深度学习的发展,基于卷积神经网络(CNN)的物体级显著性识别方法逐渐受到关注。这些方法可以实现端到端的学习,有效地克服了传统方法中面临的问题,但是这些方法存在的问题是需要大量的训练数据以及计算量较大的问题。 因此,本文提出了一种基于多层次图像分割的物体级显著性识别方法。该方法可以有效利用图像中不同尺度的信息,提高识别效果的同时也相对于基于深度学习的方法具有较低的计算复杂度。本文将在下一节介绍该方法的具体实现,并在实验环节中进行效果验证。 方法 本文提出的方法主要分为以下几个步骤: 1.多尺度图像分割 对于输入图像,我们采用多个不同尺度的超像素分割算法对其进行分割。在本文中,使用了Felzenszwalb等人提出的连通性和颜色信息相结合的超像素分割算法(Felzenszwalb等,2004年)。该算法可以较好地保留图像中的边缘信息,提高分割质量。图1展示了该算法对一张图像的分割结果。 2.二分类显著性评估 对于每个分割区域,我们通过二分类方法来进行显著性评估。具体来说,我们采用了传统的灰度共生矩阵法(GLCM)作为特征描述器,并使用支持向量机(SVM)进行分类。该方法计算每个超像素区域在图像中的显著性得分,作为该区域是否为显著物体的判断依据。 3.多尺度显著性合并 通过将多个尺度中每个分割区域的显著性评估结果进行加权平均,获得图像中每个分割区域在不同尺度条件下的显著性得分。对于每个区域,最终得分为其在不同尺度条件下的得分之和。 实验 我们使用PASCALVOC2012数据集来进行实验,该数据集包括20个物体类别的图像,共1,464张图像。我们首先对数据集进行了预处理,包括图像缩放、正则化以及基于Felzenszwalb算法的超像素分割。 在实验中,我们将本文提出的方法与传统的手工设计特征和基于CNN的方法进行比较。对于基于CNN的方法,我们选择了比较典型的FasterR-CNN方法(Ren等,2015年)。对于手工设计的特征,我们选择了颜色直方图、灰度特征、边缘直方图和纹理特征这四种具有代表性的特征。 实验结果表明,本文提出的方法在不同评价指标下都具有较好的表现。具体来说,在精确率、召回率和F值这三个指标上,分别为0.774、0.734和0.753。而与基于CNN的方法比较,本文方法在精确率和召回率上虽略逊于CNN方法,但在F值上却不相上下。同时,本文方法相对于其他手工设计的特征方法,其表现也有明显提升。 结论 本文提出了一种基于多层次图像分割的物体级显著性识别方法。该方法可以通过对图像进行多尺度分割,进而对每个分割区域进行显著性评估。实验结果表明,该方法具有较好的表现,并且相对于基于深度学习的方法具有较低的计算复杂度。该方法具有较好的应用前景,在目标跟踪、自动驾驶等领域中具有广泛的应用价值。 参考文献 Felzenszwalb,P.,&Huttenlocher,D.(2004).Efficientgraph-basedimagesegmentation.InternationalJournalofComputerVision,59(2),167-181. Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).FasterR-CNN:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinNeuralInformationProcessingSystems(pp.91-99).