预览加载中,请您耐心等待几秒...
1/10
2/10
3/10
4/10
5/10
6/10
7/10
8/10
9/10
10/10

亲,该文档总共20页,到这已经超出免费预览范围,如果喜欢就直接下载吧~

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN110072064A(43)申请公布日2019.07.30(21)申请号201910506435.6(22)申请日2019.06.12(71)申请人睿魔智能科技(深圳)有限公司地址518027广东省深圳市前海深港合作区前海深港青年梦工场6号楼220(72)发明人张明董健(74)专利代理机构北京品源专利代理有限公司11332代理人孟金喆(51)Int.Cl.H04N5/232(2006.01)权利要求书2页说明书11页附图6页(54)发明名称一种图像拍摄方法、装置、设备以及存储介质(57)摘要本发明公开了一种图像拍摄方法、装置、设备以及存储介质,该方法包括:获取待拍摄图像内镜头跟踪目标的边界框;利用预先训练好的参考模型预测待拍摄图像的第一参考位置;根据边界框内每个像素位置和第一参考位置确定镜头移动偏移量。本发明利用训练好的模型预测的第一参考位置确定镜头移动偏移量,无需人为控制摄像头的转动,能自动适应目标姿态的变化及适应相机的拍摄角度变化来进行拍摄,提高拍摄效果,提高了用户使用体验。CN110072064ACN110072064A权利要求书1/2页1.一种图像拍摄方法,其特征在于,包括:获取待拍摄图像内镜头跟踪目标的边界框;利用预先训练好的参考模型预测所述待拍摄图像的第一参考位置;根据所述边界框内每个像素位置和所述第一参考位置确定镜头移动偏移量。2.根据权利要求1所述的方法,其特征在于,所述根据所述边界框内每个像素位置和所述第一参考位置确定镜头移动偏移量包括:根据所述第一参考位置计算得到所述边界框内每个像素的位置偏移量;根据所述边界框内每个像素的位置偏移量计算得到镜头移动偏移量。3.根据权利要求1所述的方法,其特征在于,所述预先训练好的参考模型的训练过程包括:A、从预先设定的图像数据集中获取训练图像和对应的标记数据,所述标记数据包括目标的边界框信息和关键点信息;B、根据目标的边界框信息和关键点信息获取边界框中心点的参考位置;C、基于所述边界框中心点的参考位置获取所述训练图像对应的参考位置图像;D、利用深度卷积神经网络预测所述训练图像的第二参考位置以得到预测结果图像;E、根据所述参考位置图像和所述预测结果图像计算第一损失值,并根据所述第一损失值对所述深度卷积神经网络的参数进行调节;F、对数据集中的每张训练图像不断重复步骤A-E,直到步骤E中的第一损失值不再下降时,结束对深度卷积神经网络的训练,得到参考模型。4.根据权利要求3所述的方法,其特征在于,所述根据目标的边界框信息和关键点信息获取边界框中心点的参考位置包括:基于所述训练图像生成一幅网格表将所述训练图像划分为W*H个网格,W、H为大于1的自然数;获取将边界框中心放置于不同的网格中心时的第二损失值;选取所述第二损失值最小的网格的中心位置作为所述边界框中心点的参考位置。5.根据权利要求3所述的方法,其特征在于,所述基于所述边界框中心点的参考位置获取所述训练图像对应的参考位置图像包括:根据每个目标的边界框中心点的参考位置、边界框中心点和目标数量获取所述训练图像对应的参考位置图像。6.根据权利要求1所述的方法,其特征在于,所述根据所述第一参考位置计算得到所述边界框内每个像素的位置偏移量包括:根据所述第一参考位置利用公式计算得到所述边界框内每个像素的位置偏移量;其中,DX(x,y)为所述边界框内每个像素的水平偏移量,XT(x,y)为对应第一参考位置时所述边界框内每个像素的水平位置,DY(x,y)为所述边界框内每个像素的垂直偏移量,YT(x,y)为对应第一参考位置时所述边界框内每个像素的垂直位置,x为所述边界框内每个像素的水平位置,y为所述边界框内每个像素的垂直位置;所述根据所述边界框内每个像素的位置偏移量计算得到镜头移动偏移量包括:根据所2CN110072064A权利要求书2/2页述边界框内每个像素的位置偏移量利用公式计算得到镜头移动偏移量d;其中,d=(dx,dy),dx为镜头的水平移动偏移量,dy为镜头的垂直移动偏移量,(x,y)∈Θ表示点(x,y)属于边界框Θ内,∑(x,y)∈Θ1表示的是边界框Θ内包含的点数之和。7.根据权利要求3所述的方法,其特征在于,所述第一损失值用公式(1)计算得到,公式(1)为:22L=∑x,y(XTG(x,y)-XT(x,y))+∑x,y(YTG(x,y)-YT(x,y))(1)式中XTG(i,j)为根据边界框中心点的参考位置所计算的边界框内每个像素的水平偏移位置,XT(i,j)为由深度卷积神经网络预测的边界框内每个像素的水平偏移位置,YTG(i,j)为根据边界框中心点的参考位置所计算的边界框内每个像素的垂直偏移位置,YT(i,j)为由深度卷积神经网络预测的边界框内每个像素的垂