预览加载中,请您耐心等待几秒...
1/10
2/10
3/10
4/10
5/10
6/10
7/10
8/10
9/10
10/10

亲,该文档总共28页,到这已经超出免费预览范围,如果喜欢就直接下载吧~

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN113516601A(43)申请公布日2021.10.19(21)申请号202110669817.8(22)申请日2021.06.17(71)申请人西南大学地址400715重庆市北碚区天生路2号(72)发明人王建军谢亚红黄国钧王洪荣刘晨(74)专利代理机构池州优佐知识产权代理事务所(普通合伙)34198代理人袁辉志(51)Int.Cl.G06T5/00(2006.01)G06N3/04(2006.01)G06N3/08(2006.01)权利要求书6页说明书16页附图5页(54)发明名称基于深度卷积神经网络与压缩感知的图像恢复技术(57)摘要本发明公开了基于深度卷积神经网络与压缩感知的图像恢复技术,包括以下步骤:步骤1,全卷积压缩感知网络设计:其中全卷积压缩感知网络设计包括FCNN‑CS的测量阶段;步骤2,数值实验:其中数值实验包括训练设置、重建结果的评价指标、在灰度图上的实验结果对比及讨论和在彩色图上的实验结果对比及讨论。本发明通过融合深度卷积神经网络与压缩感知的图像恢复研究,即在压缩感知恢复算法的指导下设计的深度卷积神经网络用于完成图像压缩和重建任务。一方面,相比于传统的线性压缩方式,采用基于学习的卷积测量的压缩方法更有利于保留图像的结构信息和设计出自适应的测量矩阵设计,另一方面,实现了基于稀疏编码的压缩感知恢复算法指导下的恢复网络设计。CN113516601ACN113516601A权利要求书1/6页1.基于深度卷积神经网络与压缩感知的图像恢复技术,其特征在于,包括以下步骤:步骤1,全卷积压缩感知网络设计:其中全卷积压缩感知网络设计包括FCNN‑CS的测量阶段、多通道卷积测量的块RIP条件、FCNN‑CS的重建阶段和联合损失函数;在FCNN‑CS的测量阶段,假设输入图像的大小为N×N×c,其中c表示通道数,取值为1或3;然后用大小为c×B×B×c0的滤波器获得压缩测量Y,测量过程可以表示为:Y=W*X(1.1),其中卷积步长为m,测量Y的维度为M×M×co,记测量率为MRs,则可以由下式求得,我们以c和c0都取值1为例给出基于学习的测量(LearnedConvolutionalMeasurement,LCM)过程的分解,卷积测量利用卷积滤波器W实现了从原图X∈RN×N到压缩测量Y∈RM×M(M<<N),该测量过程可以表示为:Y=W*X(1.3),其B×BT中滤波器W∈R中的系数为W=w1,w2,...,wB],wi=[w1i,w2i,…,wBi]。图像的卷积运算其实是基于图像局部块的运算特别地,我们定义一个块提取算子Pij(·)来从整个图像X上获ijij取相应的图像块X:X=Pij(X),其中方程(1.3)可以按像素点写为:其中m为卷积测量时的步长;此外,我们再定义两种拉伸算子Sc(·)和Sr(·),如图1.4所示;Sc(·)为列拉伸算子,它将矩阵按列重新排列为一个向量,即xijvect=Sc(Xij),其中xijvect∈RB2;Sr(·)为行拉伸算子,同理,它将矩阵按行重新排列为一个向量,即yT=M2Sr(Y),其中y∈R;多通道卷积测量的块RIP条件:(块RIP)对任意块长为c的稀疏向量x,测量矩阵D满足k阶块RIP条件,如果有下式成立:其中δd(0<δd<1)的下确界(定义为δdk)称为观测矩阵的的块有限等距常数;测量矩阵D以级联块的方式表示:如图1.6所示,其中T[ij](i∈{1,···,co},j∈{1,···,c})是矩阵D的第ij块;对于任意的块列索引集合块行索引集合和分别表示集合和的长度;矩阵D满足k阶块RIP条件,如果对任意的索引集合且满足下式2CN113516601A权利要求书2/6页等价于δd(0<δd<1)的下确界(定义为δdk)称为观测矩阵D的块有限等距常数;FCNN‑CS的重建阶段:恢复算法的设计也是压缩感知的核心研究问题之一,其目标是从压缩测量中恢复出原始图像,可以表示为形如式(1.9)的优化问题;min||x||0s.t.y=Φx(1.9)其中||x||0表示x中非零元素的个数,记为l0‑范数,Φ表示测量矩阵;求解该问题的主要方法可以分为三类:贪婪算法,凸优化算法和基于深度学习的方法;其中联合损失函数中假设{Yi,Xi}Qi=1表示Q对输入的CS测量和对应的原始图片,重构图片为^Xi,则我们的目标是使得^Xi尽可能的接近原始图片Xi,同时使得中间层的稀疏约束成立;由于我们选择ReLU作为激活函数,可以使得中间层的系数高概率变得稀疏;也就是说稀疏约束可以被吸收到网络中,此时,损失函数就变为I其中(W,{Wk}Kk=1,{bk}Kk=1,WD)为模型的参数;步骤2,数值实验:其中数值实验包括训练设置、重建结果的评价