预览加载中,请您耐心等待几秒...
1/10
2/10
3/10
4/10
5/10
6/10
7/10
8/10
9/10
10/10

亲,该文档总共19页,到这已经超出免费预览范围,如果喜欢就直接下载吧~

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN114266824A(43)申请公布日2022.04.01(21)申请号202111508657.5G06N3/04(2006.01)(22)申请日2021.12.10G06N3/08(2006.01)G06K9/62(2022.01)(71)申请人北京理工大学地址100081北京市海淀区中关村南大街5号(72)发明人苏迪张成王少博陈志升王柯(74)专利代理机构北京理工大学专利中心11120代理人郭德忠(51)Int.Cl.G06T7/73(2017.01)G06V10/25(2022.01)G06V10/774(2022.01)G06V10/82(2022.01)权利要求书3页说明书12页附图3页(54)发明名称一种基于深度学习的非合作目标相对位姿测量方法、系统(57)摘要本发明公开了一种基于深度学习的非合作目标相对位姿测量方法、系统,通过仿真目标卫星图片及其对应的相对位姿信息构建数据集,其中仿真卫星图片包括覆盖全范围姿态的远距离目标卫星图片和模拟接近过程的近距离目标卫星图片;利用检测算法对图片进行卫星检测并裁剪缩放,得到检测图像,将仿真卫星图片输入到ResNet50残差网络中进行学习训练得到相对位置测量模型,将检测图像输入到ResNet50残差网络中进行学习训练得到相对姿态测量模型,其中相对姿态测量模型包括远距离测量模型和接近段测量模型;训练过程中的模型,通过预测结果与相对位姿标注信息的损失函数进行优化,由此获得的测量模型可以更高精度的对航天器进行相对位姿测量。CN114266824ACN114266824A权利要求书1/3页1.一种基于深度学习的非合作目标相对位姿测量方法,其特征在于,包括:步骤一、构建包括仿真卫星图片和相对位姿标注信息的数据集;所述仿真卫星图片包括覆盖全范围姿态的远距离目标卫星图片和模拟接近过程的近距离目标卫星图片;步骤二、对所述仿真卫星图片进行卫星检测,得到检测框,对所述检测框内的图像信息进行裁剪缩放,得到检测图像;步骤三、利用所述仿真卫星图片进行模型训练,得到相对位置测量模型;利用所述检测图像进行模型训练,得到相对姿态测量模型;所述相对姿态测量模型包括远距离测量模型和接近段测量模型;步骤四、将目标卫星图片输入至所述相对位置测量模型和所述相对姿态测量模型,即可获得目标卫星的相对位置信息和相对姿态信息。2.如权利要求1所述的相对位姿测量方法,其特征在于,步骤二中,所述对仿真卫星图片进行卫星检测得到检测框为:采用像素检测方法对目标卫星进行检测,分别从所述仿真卫星图片的左上角点和右下角点开始向中心遍历,所述左上角点和所述右下角点均进行两次遍历,最外循环分别为像素坐标u轴和v轴,若像素值不为零,则停止循环,左上角确定像素坐标(u1,v1)、(u2,v2),左下角确定像素坐标(u3,v3)、(u4,v4),得到检测框左上角像素坐标为(u2,v1)、检测框右下角像素坐标为(u4,v3),进而得到检测框。3.如权利要求1所述的相对位姿测量方法,其特征在于,步骤三中,所述相对位置测量模型的训练过程为:将仿真卫星图片输入到ResNet50残差网络中,ResNet50输出2048×10×10特征图经全局平均池化层得到2048×1×1特征图,2048×1×1特征图经全连接层和Tanh()激活函数处理后,得到标量距离。4.如权利要求1所述的相对位姿测量方法,其特征在于,步骤三中,所述远距离测量模型的训练过程为:将由所述仿真卫星图片中的远距离目标卫星图片获得的检测图像输入到ResNet50中,ResNet50输出2048×10×10特征图经全局平均池化层得到2048×1×1特征图,2048×1×1特征图经分类层和权重四元数拟合处理后,得到表示远距离的相对姿态的拟合四元数;所述接近段测量模型的训练过程为:将由所述仿真卫星图片中的近距离目标卫星图片获得的检测图像输入到ResNet50中,ResNet50输出2048×10×10特征图经全局平均池化层得到2048×1×1特征图,2048×1×1特征图依次经全连接层、Tanh()激活函数和单位化层处理后,得到表示近距离的相对姿态的回归四元数。5.如权利要求3或4所述的相对位姿测量方法,其特征在于,采用损失函数对所述相对位置测量模型和所述相对姿态测量模型的训练过程进行优化;所述相对位置测量模型的损失函数由相对位置的绝对损失和相对损失加权获得,用公式表示为:LZ=λ1LZ1+λ2LZ2其中,LZ表示相对位置测量模型的损失函数,LZ1表示某一仿真卫星图片由相对位置测量模型预测得到的相对位置与该仿真卫星图片在相对位姿标注信息中标注的相对位置信息的方差损失即绝对损失;LZ2表示某一仿真卫星图片由相对位置测量模型预测得到