预览加载中,请您耐心等待几秒...
1/6
2/6
3/6
4/6
5/6
6/6

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)中华人民共和国国家知识产权局*CN103077521A*(12)发明专利申请(10)申请公布号(10)申请公布号CNCN103077521103077521A(43)申请公布日2013.05.01(21)申请号201310006815.6(22)申请日2013.01.08(71)申请人天津大学地址300072天津市南开区卫津路92号(72)发明人金志刚刘晓辉徐楚(74)专利代理机构天津市北洋有限责任专利代理事务所12201代理人程毓英(51)Int.Cl.G06T7/00(2006.01)权权利要求书1页利要求书1页说明书3页说明书3页附图1页附图1页(54)发明名称一种用于视频监控的感兴趣区域提取方法(57)摘要本发明提供一种视频图像中感兴趣区域的提取方法,适用于视频监控领域。所述方法可以将感兴趣区域自动标记出来,具体包括以下步骤:1)采用双目摄像头(已预先标定)进行视频采集;2)对左右两视点的图像进行校正,消除畸变;3)左右视点选择其一,通过双目视差计算其深度图,并通过连续图像构建其高斯混合背景模型;4)使用全局的深度对比度获取深度显著性区域,同时使用背景差值的方法获取运动区域,得到两幅二值图像;5)对步骤4获取的两幅二值图像做异或运算,然后筛选连通区域(去噪),并对剩余的连通区域做膨胀操作;6)最后标记轮廓和外接矩形,获取最终的感兴趣区域。本发明有效地克服了颜色和亮度变化对感兴趣区域检测的影响,具有很高的准确性和鲁棒性。CN103077521ACN103752ACN103077521A权利要求书1/1页1.一种用于视频监控的感兴趣区域提取方法,包括以下步骤:1)使用预先标定好的双目摄像机,或者将双目摄像头连接电脑采集获得左、右视点的双目视频图像;2)根据摄像机或双目摄像头的内、外参数,对左、右视点的双目视频图像做双目校正,消除畸变,使得两幅图像能够严格的对齐;3)选择左、右视点的其中一个作为基准视点,使用BM模式匹配算法计算双目视差以获得深度图,并利用此视点的连续图像序列,再使用高斯混合模型(GMM)建立此视点的背景模型;4)根据所获取的深度图,使用全局加权的深度差值平方之和计算所有深度显著图其中,DSi为像素i对应的深度显著性,di和dj为像素i和像素j对应的深度,pi=(xi,yi)和pj=(xj,yj)是像素i、j位置,‖di-dj‖为图像中像素i和像素j之间的的欧氏距离,ω(pi,pj)是和两个像素欧式距离相关的权重;选择深度显著图中大于阈值T1的像素DSi>T1,得到二值图像I1;5)根据所获得的背景模型,使用背景减除法获取表示目标的二值图像I2,得到前景感兴趣区域;6)将I1,I2做异或运算,得到一副新的图像I3;7)对I3中所有的连通区域进行筛选,去除小于一定像素数的孤立区域。并对剩余区域做膨胀操作,获取区域集合R;8)R即为感兴趣区域集合ROI,标记轮廓和外接矩形,显式标明结果。2.根据权利要求1所述的用于用于视频监控的感兴趣区域提取方法,其特征在于,步骤5)中,满足如下公式时,认为像素属于前景感兴趣区域:|i(t)-bg(t)|≥T2其中,i(t)代表t帧中的像素,bg(t)为t帧的背景模型,T2为阈值。2CN103077521A说明书1/3页一种用于视频监控的感兴趣区域提取方法技术领域[0001]本发明属于图像检测技术领域,涉及一种可以用于视频监控的感兴趣区域提取方法。背景技术[0002]对于视频和图像来说,用户只对其中的部分区域感兴趣,这部分区域包含较大的信息量,能比较显著的吸引人的注意。使用计算机自动准确地获取感兴趣区域,在图像检测、目标识别、跟踪等领域具有广泛的应用。目前已有很多感兴趣区域的提取方法,比如用于运动目标提取的帧间差值法和背景减除法【1】,基于图像显著性分析的区域提取方法【2】,以及一些针对特定物体的检测算法(如HOG行人检测【3】),这些方法能够提取具有一定区分度的感兴趣区域。但是,帧间差值和背景差值法只能检测前景运动目标,缺乏对静止目标的识别能力;显著性的区域检测容易受颜色和亮度的影响,检测效果并不稳定;针对特定物体的检测算法往往通过训练好的分类器进行识别,检测比较准确,但往往只能针对特定目标,应用范围较窄而且难以实时。[0003]参考文献[0004]【1】Zivkovic,Z.andF.vanderHeijden(2006).Efficientadaptivedensityestimationperimagepixelforthetaskofbackgroundsubtraction[J].Patternrecognitionletters27(7):773-780.[0005]【2】IttiL,KochCandNieburE.Amodelofsaliency-base