预览加载中,请您耐心等待几秒...
1/10
2/10
3/10
4/10
5/10
6/10
7/10
8/10
9/10
10/10

亲,该文档总共15页,到这已经超出免费预览范围,如果喜欢就直接下载吧~

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN108520504A(43)申请公布日2018.09.11(21)申请号201810337089.9(22)申请日2018.04.16(71)申请人湘潭大学地址411105湖南省湘潭市雨湖区湘潭大学(72)发明人欧阳建权张云飞唐欢容(74)专利代理机构北京卓恒知识产权代理事务所(特殊普通合伙)11394代理人徐楼(51)Int.Cl.G06T5/00(2006.01)权利要求书3页说明书9页附图2页(54)发明名称一种基于生成对抗网络端到端的模糊图像盲复原方法(57)摘要基于生成对抗网络端到端的模糊图像盲复原方法,该方法包括:1)建立样本数据集;2)建立端到端图像配对模型:对数据集中的原始图像进行模糊化处理,建立模糊图像到原始图像的图像配对模型;3)生成对抗网络的对抗训练:模糊图像作为生成器输入数据,生成器学习原始图像的样本分布,生成图像,判别器将生成图像与原始图像的差异反馈给生成器,提高生成图像的质量;生成器和判别器进行反复对抗训练,得到最优模糊图像复原的网络模型;4)图像复原。本发明采用生成对抗网络端对端的训练模型,将模糊图像和原始图像配对处理,通过训练模型进行训练,不需要模糊图像的任何先验知识,学习完成后,直接输入模糊图像,模型即生成清晰图像。CN108520504ACN108520504A权利要求书1/3页1.一种基于生成对抗网络端到端的模糊图像盲复原方法,该方法包括以下步骤:1)建立样本数据集:通过公开的数据集或网络爬虫技术获取样本数据集;2)建立端到端图像配对模型:对步骤1)的样本数据集中的原始图像进行模糊化处理,将模糊化处理后的图像分别与原始图像进行配对,建立模糊图像的输入端到原始图像的目标端的图像配对模型;3)生成对抗网络的对抗训练:步骤2)中的模糊图像作为生成器输入数据,生成器学习原始图像的样本分布,生成图像,判别器判断该图像是来自生成器还是来自原始图像数据,并将生成图像与原始图像之间的差异程度反馈给生成器,生成器提高生成图像的质量;生成器和判别器进行反复对抗训练,得到最优模糊图像复原的网络模型;4)图像复原:利用训练完成的模型对模糊图像进行复原,输入待复原的模糊图像,模型输出该模糊图像复原后的图像。2.根据权利要求1所述的方法,其特征在于:步骤3)中所述生成图像与原始图像之间的差异程度的计算方法具体为:①将生成图像和原始图像划分为多个图像对应块;②基于测地距离计算生成图像和原始图像所有图像对应块的相似程度,得到生成图像与原始图像之间的差异程度。3.根据权利要求2所述的方法,其特征在于:子步骤①具体为:以生成图像A和原始图像B为目标,生成图像A和原始图像B的大小为m*m,设计一个大小为n*n的图像块S,分别对生成图像A和原始图像B采用逐像素的对应块方式进行扫描,SAi表示生成图像A中第i个像素位置的图像块,SBi表示原始图像B中第i个像素位置的图像块,SAi与SBi表示生成图像A和原始图像B第i个像素位置的对应块;作为优选,n的取值为1-15,优选为2-10,n为整数。4.根据权利要求2或3所述的方法,其特征在于:子步骤②具体为:给定生成图像A和原始图像B的图像对应块PA、PB,大小为n*n,计算两图像块中第i个像素点权值WP和WG,WP表示像素值之间的差值,有:式(1)中分别表示图像对应块中第i个像素位置Ai、Bi两点c∈{r,g,b}的像素值;WG表示图像梯度值的变化值,有:式(2)中和分别表示图像对应块中第i个像素位置Ai、Bi两点c∈{r,g,b}的像素值,α和β分别表示Ai、Bi两点像素值变化最大的方向与最小方向的夹角;计算位于不同图像块相同位置Ai、Bi两点间的测地距离d(PAi,PBi):d(PAi,PBi)=WP+WG(3);2CN108520504A权利要求书2/3页则图像块PA,PB之间的距离为:由上述测地距离可得生成图像与原始图像的内容损失:式(5)中M表示生成图像与原始图像划分图像对应块的个数,n*n表示一个图像对应块的大小,d(G(x)i,Z(y)i)表示图像中第i个像素点位置的生成图像G(x)到原始图像Z(y)的测地距离,表示L1损失,x表示模糊图像,y表示原始图像;判别器判断图像来自生成器的生成图像还是原始图像的损失为:式(6)中y表示样本数据集中所有的样本数据,N表示生成器生成的图像个数;由生成图像和原始图像的内容损失和判别器损失的联合优化,则生成对抗网络的联合优化损失函数为:LG=Lgd+LD(7);即得:生成图像与原始图像之间的差异程度为LG=Lgd+LD。5.根据权利要求4所述的方法,其特征在于:α的取值为0,π/4,π/2,3π/4或π;和/或β的取值为0,π/4,π/2,3π/4或π。6.根