预览加载中,请您耐心等待几秒...
1/3
2/3
3/3

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

基于单幅RGB-D图像的室内场景曼哈顿坐标系估计研究的任务书 任务概述 本次任务旨在研究基于单幅RGB-D图像的室内场景曼哈顿坐标系估计方法,主要涉及室内场景分割、物体检测、深度估计、视差计算等多个领域,需要综合运用计算机视觉、深度学习等相关技术方法,完成对室内场景曼哈顿坐标系的估计任务。 任务目标 主要任务目标如下: 1.设计室内场景曼哈顿坐标系的建立方法,以及相应的坐标系变换方法,实现对室内场景的精确估计。 2.设计室内场景分割和物体检测算法,将场景中的每个物体分离出来,并对物体进行分类,确定物体的类别和位置。 3.设计单幅RGB-D图像的深度估计算法,实现对传感器拍摄的每个像素点的深度值的精确估计。 4.设计视差计算算法,对深度图像进行视差计算,并得到横向和纵向的位移量。 任务内容 任务将从以下几个方面展开: 1.对室内场景曼哈顿坐标系进行研究,确定坐标系的建立和变换方法。 2.研究室内场景分割和物体检测算法,对场景中的每个物体进行分类和定位。 3.研究基于CNN的单幅RGB-D图像的深度估计算法,实现对每个像素点深度值的估计。 4.研究视差计算算法,对深度图像进行视差计算,并获取横向和纵向的位移量。 5.实现算法并进行实验验证,评估算法的精度和效率。 预期成果 最终预期成果包括: 1.基于单幅RGB-D图像的室内场景曼哈顿坐标系估计算法。 2.基于深度学习的室内场景分割和物体检测算法。 3.基于深度学习的单幅RGB-D图像的深度估计算法。 4.基于视差计算的深度图像位移量计算算法。 5.实验验证结果和分析报告。 实验平台和数据集 本次任务的实验平台将采用Python语言,在Linux操作系统中开发和运行。使用的深度学习框架为TensorFlow。 数据集将使用NYUv2,该数据集包括464张RGB-D图像,其中349张用于训练,115张用于测试。 任务计划 本次任务计划总时长为3个月,具体内容如下: 第1个月:研究室内场景曼哈顿坐标系的建立方法、物体检测算法和深度估计算法。对相关算法进行设计和实现。 第2个月:研究视差计算算法,对深度图像进行位移量计算。进行实验验证,分析和评估算法的性能。 第3个月:综合实现各算法,并进行实验验证和性能分析,完成任务报告。 参考文献 [1]SilbermanN,HoiemD,KohliP,etal.IndoorsegmentationandsupportinferencefromRGBDimages[C]//Europeanconferenceoncomputervision.Springer,Berlin,Heidelberg,2012:746-760. [2]GuptaS,GirshickR,ArbeláezP,etal.LearningrichfeaturesfromRGB-Dimagesforobjectdetectionandsegmentation[C]//Europeanconferenceoncomputervision.Springer,Cham,2014:345-360. [3]EigenD,PuhrschC,FergusR.Depthmappredictionfromasingleimageusingamulti-scaledeepnetwork[C]//Advancesinneuralinformationprocessingsystems.2014:2366-2374. [4]LuoW,SchwingAG,UrtasunR.Efficientdeeplearningforstereomatching[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2016:5695-5703.