基于深度学习模型的图像去噪方法综述

蔡锐 ,  萨和雅 ,  安志捷

内蒙古师范大学学报(自然科学版) ›› 2026, Vol. 55 ›› Issue (02) : 111 -123.

PDF (1867KB)
内蒙古师范大学学报(自然科学版) ›› 2026, Vol. 55 ›› Issue (02) : 111 -123. DOI: 10.3969/j.issn.1001-8735.2026.02.001

基于深度学习模型的图像去噪方法综述

作者信息 +

Review of Image Denoising Methods Based on Deep Learning Models

Author information +
文章历史 +
PDF (1911K)

摘要

合成孔径雷达(SAR)具备全天时、全天候成像能力,在环境监测、资源调查和灾害评估等领域具有重要应用价值。但其成像机制不可避免地产生乘性散斑噪声,导致图像质量下降,影响后续信息提取与应用。针对该问题,研究者提出了多种去噪方法:早期方法主要依赖滤波器设计和统计建模,在噪声抑制与结构保持方面取得了一定成效;随着深度学习技术的发展,数据驱动方法逐渐成为主流,并在建模能力与去噪性能上展现出明显优势。系统综述基于深度学习的 SAR 图像去噪研究进展,涵盖常用公共数据集、性能评价指标、基础网络结构以及最新的技术。研究显示,该领域已从局部特征建模扩展到多尺度融合,并进一步关注全局依赖关系建模与新型网络架构设计,在噪声抑制、结构保持和特征表达等方面均取得了实质性提升。

Abstract

Possessing all‑time and all‑weather imaging capabilities, synthetic aperture radar (SAR) holds significant applications in fields such as environmental monitoring, resource survey, and disaster evaluation. However, its imaging mechanism inevitably produces multiplicative speckle noise, thereby degrading image quality and affecting subsequent information extraction and application. To this end, researchers have proposed various denoising methods. Specifically, methods at the early stage mainly relied on filter design and statistical modeling, yielding certain results in noise suppression and structure preservation. As deep learning technology develops, data‑driven methods have gradually become mainstream, demonstrating notable advantages in modeling capability and denoising performance. This paper systematically reviewed the research progress of SAR image denoising based on deep learning, covering common public datasets, performance evaluation indexes, basic network structures, and the latest technologies. The results show that this field has expanded from local feature modeling to multi⁃scale fusion, and further focuses on global dependency modeling and the design of new network architectures, with substantial improvements achieved in noise suppression, structure preservation, and feature expression.

Graphical abstract

关键词

SAR图像 / 散斑噪声 / 深度学习 / 数据集 / 评价指标

Key words

SAR image / speckle noise / deep learning / dataset / evaluation index

引用本文

引用格式 ▾
蔡锐,萨和雅,安志捷. 基于深度学习模型的图像去噪方法综述[J]. 内蒙古师范大学学报(自然科学版), 2026, 55(02): 111-123 DOI:10.3969/j.issn.1001-8735.2026.02.001

登录浏览全文

4963

注册一个新账户 忘记密码

合成孔径雷达(synthetic aperture radar, SAR)是一种基于微波的主动遥感成像技术,具有不受光照和天气限制的全天时、全天候观测能力,广泛应用于地表形变监测、灾害评估、农业调查和国土资源管理等领域。SAR图像通过相干成像生成,虽然具备高空间分辨率,但也不可避免地引入了散斑噪声(speckle noise)。该噪声由微波信号与粗糙地表多次散射干涉产生,具有明显的乘性特征和空间相关性,不仅干扰了目标检测、变化识别等下游任务的准确性,还降低图像的视觉质量。
围绕SAR图像噪声抑制问题,相关研究已持续推进数十年,并呈现出由模型驱动方法向数据驱动方法演进的发展趋势。早期方法主要依赖图像统计建模与滤波策略来实现噪声抑制;近年来,随着深度学习的迅速发展,卷积神经网络、自编码器、生成对抗网络及Transformer等结构被逐步引入SAR去噪任务,明显提升了去噪性能。然而,这类方法在泛化能力、数据依赖性及物理一致性方面仍面临诸多挑战,如何实现高保真、强泛化且物理一致的SAR图像去噪,仍是当前研究的关键难点。
为全面梳理SAR图像去噪的研究进展,本文从以下四个方面展开综述:(1)总结已开源SAR图像数据集的主流平台及其数据特点;(2)梳理回顾深度学习方法在SAR图像去噪中的应用与发展,并分析介绍了不同模型的策略与性能差异;(3)归纳常用的图像质量评价指标,讨论其适用性与局限性;(4)结合现有问题与挑战,展望未来在自监督学习、跨模态融合、物理一致性建模及工程应用等方面的发展方向。

1 SAR图像数据集

在SAR图像去噪等研究中,数据来源的选择直接影响实验设计与算法评估1。目前已有多个主流平台提供开源或免费获取的SAR图像数据,涵盖C波段、X波段与L波段,支持多种分辨率、极化方式及成像模式。

当前主流SAR图像数据平台具有全球覆盖、更新频繁、格式多样等特点,广泛应用于遥感监测与地理信息分析任务。其中,Sentinel-1(Copernicus)计划提供C波段SAR数据,覆盖全球、连续更新,支持GRD与SLC格式,是当前最常用的公共SAR数据源之一。NASA ASF DAAC整合了Sentinel-1、ALOS PALSAR、ERS、RADARSAT等多项数据,支持批量下载与API访问,为InSAR分析与长期序列研究提供有力支持。Capella Space与Umbra Lab分别提供高分辨率与超高分辨率的X波段数据,适用于城市建筑物识别、基础设施监测与高频动态目标检测等精细化应用。ICEYE已开放大量SAR图像缩略图,便于教学演示与模型测试。Google Earth Engine(GEE)平台提供在线访问与处理能力,具备云端可视化与时序分析功能,极大简化了SAR数据使用流程。地理空间数据云平台则面向中国区域提供高分系列SAR图像,为本地化研究提供了有效数据支撑。各平台的功能特点与适用方向见表1,研究者可根据具体任务需求选用相应的数据来源。

2 数据驱动方法

近年来,机器学习在图像处理与计算机视觉领域中取得了明显进展。此类数据驱动方法通常依赖于深度神经网络(DNN),其作为通用的函数逼近器,通过有限的训练数据学习输入与输出之间的映射关系。在这一通用框架下,根据网络的训练方式需区分监督学习、自监督学习和无监督学习三种方式。

监督学习最为常见,依赖于大量标注数据,其中每个输入对应一个理想输出,例如分类任务中的标签或图像去噪中的干净图像。虽然深度神经网络的监督训练在许多复杂任务中表现优异,但其局限在于需要大量带标签的数据。相反,无监督学习则不依赖标签,而是通过数据自身的统计结构来提取潜在模式。自监督学习介于两者之间,虽缺乏直接标签,但通过构造伪标签、重构任务等方式生成监督信号,仍可实现有效训练。

在图像领域,卷积神经网络(CNN)是一种重要的深度学习架构。CNN本质上由一系列线性卷积操作与非线性函数交替组成,其基本结构可表示为

Zf(𝓁+1)=σi=1F(𝓁)Φf,i(𝓁)*Zi(𝓁),f=1,2,,F(𝓁+1)

其中,Z(𝓁)表示第𝓁层的输入特征图,Φf,i(𝓁)是大小为K×K的卷积核,*表示卷积操作,σ为非线性激活函数。该结构通过小感受野、权重共享等方式捕捉局部空间特征,具有参数少、易训练、泛化强的优点。卷积结构还天然具有空间平移不变性,有助于增强模型在不同位置上的特征表达能力。多层堆叠结构通过逐层组合特征表示,实现了从底层边缘信息到高层语义信息的有效抽象。

不同于CNN框架,生成对抗网络(GAN)也是图像建模中广泛应用的架构2。GAN包含生成器G与判别器D两个对抗模块,G负责生成近似真实图像,D判别图像真伪。其训练过程可视为博弈,G的目标是欺骗D,而D的目标是正确判断。GAN可用于图像复原、合成与增强任务,在去噪过程中通过学习图像真实分布,提高重建图像的自然性与结构一致性。网络结构如图1所示。

深度网络的训练目标是最小化定义好的损失函数,常用的优化方法包括随机梯度下降及其加速变体Adam3。这一过程计算复杂度高,通常借助图形处理单元(GPU)加速,以满足大规模图像数据下的高效训练需求。本节将主要介绍监督学习和自监督学习在SAR图像噪声去除中的工作。图2图3分别展示了监督学习与自监督学习去噪方法的发展线路和本文中所采用的分类方法。

2.1 监督学习

在深度学习中ID-CNN是最早的基于CNN的图像去斑方法之一4。该方法使用一种无残差结构,从原始域图像中估计噪声内容。因此去噪图像是通过输入图像与估计的斑点噪声之间的比值获得的,而非两者之间的差值。鉴于噪声的乘性特征,这种方法非常合理。当然,在估计的噪声值接近零的情况下,图像的逐点比值可能产生异常值。为避免此类问题,输出端使用了一个tanh非线性层以实现软阈值,从而提高鲁棒性。该网络结构相对标准,包括8个卷积层、批归一化和ReLU激活函数。作者同期在文献[5]中提出了ID-GAN,一种基于生成对抗网络的去斑方法。尽管GAN并非传统意义上的CNN,本文仍将其视为一种监督学习的深度学习方法,因为实际的去斑核心子模块是生成器子网络。生成器将带噪图像作为种子输入,并生成一幅几乎无噪声的新图像,从而能够通过判别器的判断。最终,生成器在一个组合损失函数下进行训练,该损失函数不仅包括对抗损失项,还包括常见的𝓁2损失项,以确保输出图像不偏离原始图像,并引入感知损失项6,该项基于一个预训练的VGG16模型7。生成器结构为标准的8层CNN,自编码器结构。在此基础上,文献[8]中提出了一个类似方法,该方法使用TV损失项代替感知损失。

基于乘性噪声建模的网络在系列文献911中被提出。在前两个网络中,使用了一个10层的普通CNN;而在多目标网络MONet11中,引入了两个残差模块,使网络层数增至17层。相较于网络结构设计,这些工作更关注于损失函数的设计,其核心目的是捕捉SAR图像与噪声的统计特性。文献[12]使用了3层网络结构,包括一个普通CNN和一个多层感知机,但其效果有限。

在深度学习中,残差结构通过引入跳跃连接,使网络能够直接学习输入与输出的残差映射,而非直接拟合复杂函数,从而缓解梯度消失问题、提升模型训练效率与性能。去噪网络中这一类方法数量众多。最早采用此设置的方法是SAR-DRN13,目前已成为该领域最流行的方法之一,常被用作基础网络结构。其最主要的贡献是轻量化结构,仅包含7个卷积层。这种设计通过引入空洞卷积技术,在不牺牲性能的前提下降低了训练复杂度,同时确保了较大的感受野。此外,该方法还引入了跳跃连接来实现残差块结构。

HDRANet方法14也采用了空洞卷积和跳跃连接,其结构为7层网络。其主要创新在于引入注意力模块,该模块在空间和通道两个维度上重新定义卷积特征,通过合适的注意力权重强化有效特征并抑制无效特征。空间注意力模块聚焦于图像中更为关键的区域。尽管消融实验表明注意力模块的重要性,但目前尚不清楚空间注意力在图像恢复中如何具体发挥作用。

SAR-DDCN15在思路上与SAR-DRN相似,其主要创新是引入了两个五层的密集连接块。密集连接已被广泛证明可在非常深的网络中实现特征的高效传播,并缓解梯度消失问题。然而,该网络深度仅为12层。密集连接也被用于MCN-WF(多连接小波特征网络)中,该方法在文献[16]中提出,其网络深度达32层。该方法的核心思想是采用更深的结构以提取更具表现力的特征。计算负担则通过简化的密集连接块结构加以缓解:每个密集连接块包含5层,仅最后一层接收前面所有层的输入。该结构在网络块级别上被重复使用,从而构建出一个多连接的分层网络。

Lattari等17提出了一个相对较深的网络结构,借鉴了最初为图像分割设计的U-Net架构18。该网络为典型的编码器-解码器结构:在编码器部分,图像被逐步下采样以提取丰富的上下文特征;在解码器部分,特征被逐步上采样以恢复图像尺寸。为了保留图像细节,多个跳跃连接将U结构两侧同采样层相连,注入高分辨率信息。架构的设计也经过充分的消融实验验证。值得强调的是,该网络基于真实SAR数据训练,噪声通过向多视SAR图像中添加模拟斑点得到。虽然噪声为模拟生成,但图像的统计特性接近真实干净图像。一个相似的网络在文献[19]中被提出,该方法的核心是跳跃连接结构,其提出了一个28层的残差编码器-解码器网络REDNET20。该方法的目标同样是改善图像细节并缓解梯度消失问题,但不同于U-Net的特征拼接策略,这里采用了残差连接的方式。

近年来研究者致力于融合经典图像处理策略与数据驱动的深度学习方法,旨在充分发挥两者的互补优势2122:一方面,利用过去数十年在SAR图像去斑领域积累的丰富理论知识与工程经验;另一方面,借助深度学习工具在特征表达和非线性建模方面的强大能力,提升去噪效果与适应性。一个典型的融合范例是CNN-NLM方法23,其中斑点噪声去除通过NLMs方法完成,这是一种简单且已广泛推广的滤波方法。通过加权平均目标像素周围的噪声像素来估计干净像素,权重则依赖于目标像素与参考像素之间的相似性。在CNN-NLM中,相似性度量被一个经过训练的CNN取代。网络输入是从原始图像中提取的图像块,输出为一组自适应滤波权重24。其中一个变式使用12层卷积网络,而另一个变式提出了包含两个N3层的20层CNN,借助文献[25]中提出的结构来提取图像自相似性特征。这些层计算输入特征的k个最近邻关系,供后续非局部处理步骤使用。训练过程使用合成数据和多视角SAR图像共同完成,效果远超传统非局部方法PPB26等。该结果说明了滤波权重选择应将信号本身与噪声强度考虑在内。值得注意的是,这种完全线性的滤波器在性能上可媲美先进的非线性CNN方法,尽管SAR中噪声为非加性结构,但该类线性方法仍值得进一步探索。

非局部滤波与深度学习之间的融合思路在AWGN去噪研究中被广泛提及2527。受到文献[28]的启发,应用于SAR斑点去除的早期研究在文献[29]中提出:MuLoG输出与DnCNN结合后输入非局部精细化模块。相似的图像块被归纳为3D组块,在图像域中使用Haar小波进行变换收缩处理,然后聚合。在此基础上,SAR-NN3D30方法将预训练的CNN(CNN-SAR或ID-CNN)与非局部3D收缩融合于迭代滤波中。每次迭代,当前去噪图像被重新组合并再次输入CNN,之后再进行一次非局部收缩。但该方法未在真实SAR数据上进行测试。

另一种迭代方法是SAR-RDCP31,将去噪过程建模为一个半变分优化问题。该方法在每次迭代中使用CNN估计先验项,并在所有迭代中共享网络参数,从而实现了递归训练。该方法结构紧凑,主要由扩张卷积、残差连接和通道注意模块构成。其保真项通过简化的梯度下降法进行优化。

在文献[32]中提出的多模型方法,在对数域中对不同噪声强度的图像进行训练,最终融合其输出,并利用显著性图作为引导信息进行迭代去噪,直到满足收敛条件。据称,该方法在多个指标上比现有方法高出5~10 dB,但作者未公开其代码,无法复现。文献[33]中还提出了一种使用小型U-Net的方法,其输入不仅为原始图像,还包含一个由文献[34]提出的局部纹理结构。其基本思想是利用该结构指导ENL估计,从而辅助去噪。

2.2 自监督学习

在实际图像去噪任务中,获取干净图像作为监督标签往往成本较高,限制了监督学习方法的适用性。自监督学习方法通过设计合理的损失构造或数据对比机制,在不依赖干净图像的前提下实现有效去噪,逐渐成为当前研究的重点方向3536

Lehtinen等37提出了一种基于自监督的图像去噪方法,称为Noise2Noise(N2N),该方法基于U-Net18结构。N2N需要完美对齐的噪声图像对,这些图像具有相同的图像信号c,但叠加了不同的噪声n1n2。成对的噪声图像x1=c+n1,x2=c+n2被分别用作训练的输入与目标,其损失函数可表示为

L(θ)=F(c+n1;θ)-(c+n2)2,

其中F()表示U-Net模型,θ表示模型参数。通过这种策略,N2N实现了与监督式图像去噪相媲美的去噪效果。然而,N2N需要图像对必须严格对齐,而这种严格对齐的图像对,在实际应用中受环境因素的影响往往难以获取。为克服这一限制,学者使用了噪声模型38或噪声级估计方法来人为生成噪声与噪声图像对。有些方法使用未配对的噪声图像与干净图像来获取模拟噪声,并将该噪声添加到干净图像中训练去噪模型,而有些方法则仅使用单张噪声图像进行模型训练。

GCBD39是另一种图像自监督网络,使用未配对的噪声图像与干净图像,其方法分为两个阶段:噪声水平估计与噪声去除。首先,从噪声图像中提取噪声块,并训练生成对抗网络(GAN)以估计噪声分布并生成噪声图像。其次,使用生成的噪声图像与干净图像配对,构造合成的噪声图像对,训练CNN网络以对噪声图像进行去噪。为了获得更稳定的噪声估计,GCBD采用对多个噪声块进行平均的方法,在假设噪声为零均值的前提下估计噪声分布。GCBD使用WGAN-GP40损失训练GAN,并采用结构类似DnCNN的CNN41。GAN与CNN的损失函数分别为

LGAN= 𝔼x,p[D(x^)]-𝔼x,p[D(x)]+γ𝔼x^~pgx^D(x^)2-12,
LCNN(θ)=12Ni=1NR(θ;yi)-(yi-xi)

其中,D()是判别器,R()表示CNN网络的输出,xi为干净图像,yi为对应噪声图像,N为样本数,θ为网络参数。GCBD不依赖于噪声-干净图像对或噪声-噪声图像对,仅需未配对的噪声-干净图像用于训练。生成器合成的噪声比传统固定噪声模型具有更强的泛化性,但其假设噪声为零均值,可能不适用于所有类型的噪声。

Soltanayev等42提出了一种基于Monte-Carlo Stein无偏风险估计定理的自监督图像去噪方法,其核心公式为

i=1Khi(x)yi=limϵ0𝔼ηiTηiTh(y+ϵη)-h(y)ϵ,

其中,η˜~N0,1K,且与ny相互独立,并假设函数h(y)可二阶泰勒展开。如果不满足该条件,只要h(y)是温和增长的,该等式在弱导数意义下仍然成立:

i=1Khi(x)yi=1ϵ𝔼ηiTηiT(h(y+ϵη)-h(y)),

其中,η~𝒩(0,I)T表示转置操作。SURE方法将该公式用于无监督训练目标函数,并将其优化为随机梯度估计格式,使其满足MC-SURE条件。该方法适用于高斯噪声,但也可扩展至泊松分布、指数分布等,以适应更广泛的应用场景;缺点是对超参数敏感,且在噪声模型变化时需重新训练。

C2N框架43则通过训练一个噪声生成器G,输入干净图像x和随机变量r生成伪噪声图n^,从而构造伪噪声图像y^

y^=x+n^=x+G(x,r),

其中r~𝒩(0,I32)表示32维的随机向量,模拟噪声的不确定性。判别器D用于判断y^是来自生成器G还是从真实数据集中采样,两个网络GD通过Wasserstein距离对抗性训练,损失函数为

Ladv(D,G)=𝔼y'~PN[D(y')]-𝔼x~PX,r~Pr[1-D(x+G(x,r))]+λ𝔼x,r,x^x^D(x^)2-12,

其中,PNPC分别表示真实噪声图像与干净图像的分布,Pr表示随机向量的分布。为防止生成图像在颜色通道上偏移,本文引入颜色稳定损失项Lstd

Lstd=1Ni=1Nc𝒞μ^i,c1,

其中,N是mini-batch中的图像数量,c是通道索引,μ^i,c是通道c的均值。该损失用于约束生成图像在通道维度的颜色分布。尽管C2N可通过无监督方式使用伪噪声图像训练模型,并采用L1损失去噪,但由于伪噪声图像可能无法完全拟合真实噪声,仍可能在实际应用中产生偏差。

针对基于噪声图像训练在实际应用中可能产生的偏差问题,Zhang等44提出了一种新颖的自监督图像去噪方法,称为Denoise Transformer(DT)。该方法以带掩码的噪声图像作为输入,由CADT(context-aware denoise transformer)单元和次级噪声提取器模块构成。CADT设计为双分支结构:局部分支由多个卷积层和可变形卷积组成,全局分支由Transformer构成。CADT强调局部与全局特征的融合与互补,通过残差学习增强噪声提取性能。SNE块设计用于次级全局噪声提取,结构简单、计算复杂度低但效果显著。DT在处理模糊纹理和低亮度区域图像方面,较当前先进方法表现出竞争力。但由于Transformer结构的高计算成本,可能限制其在某些工业应用中的实际使用。为此,仍需进一步进行计算优化以增强其实用性。

作为典型的自监督图像去噪方法,BSN基于噪声在空间上相互独立且均值为零的假设,通过利用图像信号的空间相关性预测盲像素45,能够在无真实噪声标签的情况下有效完成去噪。然而,BSN在特征表达能力和全局信息建模方面仍有提升空间,这促使研究者提出了结合BSN与Transformer的改进网络LG-BPN。LG-BPN46是一种面向真实世界sRGB图像去噪任务的网络,提出了结合BSN与Transformer的结构设计。该方法融合了两个分支的特征信息:局部信息提取分支采用多级扩张卷积模块(DCB),全局信息提取分支使用Dilated Transformer Block(DTB)。为打破噪声的空间依赖并引入盲点机制,LG-BPN引入了密集采样补丁掩码卷积(DSPMC),使用特定掩码形状代替先前方法中使用的周期性掩码47。DCB与DTB协同作用以提取多尺度局部与全局信息,增强噪声结构的建模能力。该掩码设计可在保持纹理结构完整性的同时,避免图像信息的不可逆损伤,从而提升后续网络对高频信息的提取能力。为进一步缓解DTB中盲点造成的信息丢失问题,LG-BPN对Transformer模块进行了改进:将空间注意力替换为通道注意力,并采用3×3扩张卷积。这种结构不仅提升了模型对全局信息的建模能力,也在保留结构信息的同时有效消除图像伪影。实验结果表明,LG-BPN在多类真实图像去噪任务中均取得了出色表现。不过,DSPMC的掩码形状在某些图案复杂或纹理显著的图像中,可能不具备最优性能。此外,DTB中Transformer分支的结构复杂性也提高了模型的总体计算开销,从而限制其在工业场景中的部署潜力。

Papkov等48提出了一种基于Swin Transformer的图像自编码器SwinIA,用于盲点自监督图像去噪。与同类方法不同,SwinIA并不对噪声分布作出假设,也不依赖训练过程中的掩码机制。该模型可通过单次前向传播和均方误差(MSE)损失进行训练。尽管盲点机制天然存在信息缺失,且模型对噪声分布本身并不敏感,SwinIA依然在多个任务中实现了有竞争力的去噪效果。然而,该方法仍存在计算复杂度高的问题,限制了其在资源受限环境下的适用性。

生成模型领域,Hu等49基于去噪扩散概率模型提出R-DDPM,通过区域引导的马尔可夫链蒙特卡洛采样有效抑制了高频伪影生成,其多尺度适配器模块首次实现单一模型对千米级至米级分辨率SAR图像的统一处理。图4展示了扩散模型的一般实现过程。

3 SAR图像去噪评价指标

在SAR图像去斑处理中,大多数研究致力于在有效抑制斑点噪声的同时,最大程度地保留图像中的细节特征。其中一个关键点在于,真实的无斑地物后向散射通常无法获得,导致去斑图像的真实性难以准确评估。另一个重要问题是,图像平滑度与细节之间的权衡关系,如何在降噪的同时避免对原始图像特征的过度削弱。

当前的去斑评估主要关注均匀区域中的噪声抑制效果与非均匀区域中细节信息的保持程度,以衡量去斑算法在特征保留与噪声抑制之间的平衡。常规评估方法包括视觉检验,但为了实现更加客观的性能量化,通常采用参考指标方法或无参考指标方法进行分析50

在有参考图像的条件下,研究者可以利用原始图像的完整信息,将去斑结果与参考图进行直接对比,从而更精确地评估去斑效果。这种情况下,由于已知图像的先验统计特性,去斑方法的优化空间也更大51。本文总结了去噪工作中主要使用的评价指标,见表2

4 总结及展望

4.1 遥感图像滤波技术发展历程

近年来,深度学习技术推动了SAR图像去噪的快速发展,实现了从人工设计特征到端到端特征学习的转变。CNN通过局部卷积和权重共享机制,有效捕捉图像的空间特征,并在早期去噪任务中展现出良好性能;GAN在提升图像自然性与细节保持方面发挥了重要作用;编码器-解码器结构及U-Net变体利用跨层特征融合机制,实现了多尺度特征的高效恢复;注意力机制与非局部建模进一步增强了对关键区域与全局依赖的表达能力58;而基于Transformer和扩散模型的方法则在复杂噪声建模和高质量重建上展现出新的潜力5960。同时,自监督学习逐渐成为突破标注数据依赖的重要方向,跨模态融合和轻量化网络架构也拓展了去噪方法在遥感、医学影像与工业检测等领域的应用边界。总体来看,深度学习驱动的SAR图像去噪正呈现出多尺度建模61、全局语义捕获和物理一致性约束的趋势,并逐步向跨任务和跨模态的一体化处理框架演进。

4.2 未来研究趋势

当前研究趋势表明,传统算法的物理先验与深度学习的特征学习能力的结合,正在成为突破现有技术瓶颈的重要方向。将非局部均值滤波的块匹配机制设计为神经网络的可微模块62,既能继承非局部相似性搜索的强去噪能力,又可通过端到端训练优化匹配权重。一些新型架构通过嵌入自适应块匹配层,显著提升边缘保留效果。此外,小波阈值收缩的频域处理思想与神经网络的结合成为热点6364,如将小波包分解作为生成对抗网络的前置模块,通过频带自适应阈值控制生成图像的高频细节,在复杂场景中有效降低误检率。此类融合方法的关键在于构建可微分的传统算法算子65,使其能够参与梯度反向传播,例如将频域变换的分解-重构过程实现为自定义神经网络层。

为满足高分辨率SAR图像的实时处理需求,需要在计算效率与模型泛化能力之间实现协同优化。在轻量化设计层面,动态稀疏卷积网络66通过自适应权重共享机制,在训练阶段自动识别冗余滤波器并进行通道级剪枝,使模型参数数量明显减少,同时维持非局部相似性搜索的核心功能。在计算架构层面,可微分架构搜索(differentiable NAS)能自动生成适应不同内存带宽约束的网络拓扑结构,如将 小波阈值收缩模块与深度可分离卷积进行多尺度嵌套,既能保留高频细节,又能减少跨层数据传输量。

跨模态知识迁移与多任务学习为提升SAR图像去噪性能提供了新的思路。随着多源遥感数据的增长,跨模态知识迁移成为提升滤波性能的新突破口。联合光学影像的语义信息引导SAR图像去噪,可明显增强结构保持能力。通过跨模态对比学习对齐特征空间,提升复杂场景的结构一致性。多任务联合学习框架通过共享底层特征减少计算冗余,同步执行去噪与地物分割任务,在灾害监测中提升整体效率。

数学理论为深度学习方法在SAR图像去噪中的应用提供了坚实支撑。流形假设认为,高维数据实际上位于低维流形上。在深度学习中,利用这一假设可以设计出更有效的特征提取方法。在SAR图像去噪过程中,考虑数据的流形结构,有助于保留图像的关键特征,同时去除噪声。此外,通用近似定理指出,前馈神经网络可以以任意精度逼近任何连续函数。这为设计高效的深度学习模型提供了理论基础。在SAR图像去噪中,利用这一理论,可以设计出能够逼近理想去噪函数的神经网络模型,从而提高去噪效果。因此,深入研究如何将这些数学原理与深度学习相结合,将有助于设计出更为高效、鲁棒性能优的SAR图像去噪方法。这种融合不仅有助于提升模型性能,还能增强其解释性,促进SAR图像处理技术的发展。

参考文献

[1]

VÁSQUEZ-SALAZAR R DCARDONA-MESA A AGÓMEZ Let al. Labeled dataset for training despeckling filters for SAR imagery[J]. Data in Brief202453: 110065.

[2]

GOODFELLOW I JPOUGET-ABADIE JMIRZA Met al. Generative adversarial nets[C].//In Proceedings of the 28st International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2014: 2672–2680.

[3]

KINGMA D P. Adam: A method for stochastic optimization[J]. arXiv preprint arXiv2014:1412.6980.

[4]

WANG P YZHANG HPATEL V M. SAR image despeckling using a convolutional neural network[J]. IEEE Signal Processing Letters201724(12): 1763-1767.

[5]

WANG P YZHANG HPATEL V M. Generative adversarial network-based restoration of speckled SAR images[C]// IEEE 7th International Workshop on Computational Advances in Multi-sensor Adaptive Processing (CAMSAP).Curacao: IEEE, 2017: 1-5.

[6]

JOHNSON JALAHI ALI F F. Perceptual losses for real-time style transfer and super-resolution[M]//Computer Vision-ECCV 2016. Berlin: Springer, 2016: 694-711.

[7]

SIMONYAN KZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J].arXiv preprint arXiv2014:1409.1556.

[8]

LIU RLI YJIAO L. SAR image specle reduction based on a generative adversarial network[C]// International Joint Conference on Neural Networks (IJCNN).Glasgow: IEEE, 2020: 1-6.

[9]

FERRAIOLI GPASCAZIO VVITALE S. A novel cost function for despeckling using convolutional neural networks[C]//Joint Urban Remote Sensing Event (JURSE).Vannes: IEEE, 2019: 1-4.

[10]

VITALE SFERRAIOLI GPASCAZIO V. A new ratio image based CNN algorithm for SAR despeckling[C]// IEEE International Geoscience and Remote Sensing Symposium.Yokohama: IEEE, 2019: 9494-9497.

[11]

VITALE SFERRAIOLI GPASCAZIO V. Multi-objective CNN-based algorithm for SAR despeckling[J]. IEEE Transactions on Geoscience and Remote Sensing202159(11): 9336-9349.

[12]

TANG XZHANG LDING X L. SAR image despeckling with a multilayer perceptron neural network[J]. International Journal of Digital Earth201912(3): 354-374.

[13]

ZHANG QYUAN Q, LI, J, et al. Learning a dilated residual network for SAR image despeckling [J]. Remote Sensing201810(2): 196-213..

[14]

LI J YLI YXIAO Y Yet al. HDRANet: Hybrid dilated residual attention network for SAR image despeckling[J]. Remote Sensing201911(24): 2921-2932.

[15]

GUI YXUE LLI X. SAR image despeckling using a dilated densely connected network[J]. Remote Sensing Letters20189(9): 857-866.

[16]

ZHANG JLI W GLI Y S. SAR image despeckling using multiconnection network incorporating wavelet features[J]. IEEE Geoscience and Remote Sensing Letters202017(8): 1363-1367.

[17]

LATTARI FGONZALEZ LEON BASARO Fet al. Deep learning for SAR image despeckling[J]. Remote Sensing201911(13): 1532.

[18]

RONNEBERGER OFISCHER PBROX T. U-Net: Convolutional networks for biomedical image segmentation[M]// Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015.Berlin: Springer, 2015: 234-241.

[19]

GU FZHANG HWANG Cet al. Residual encoder-decoder network introduced for multisource SAR image despeckling [C]// SAR in Big Data Era: Models, Methods and Applications (BIGSARDATA). Beijing: IEEE, 2017:1-5.

[20]

MAO XSHEN CYANG Y B. Image restoration using very deep convolutional encoder-decoder networks with symmetric skip connections[J]. Advances in neural Information Processing Systems201629:1-9.

[21]

ZHAO X QREN F QSUN H Bet al. Synthetic aperture radar image despeckling based on a deep learning network employing frequency domain decomposition[J]. Electronics202413(3):490-503.

[22]

GUO Z YHU W DZHENG S Cet al. Efficient conditional diffusion model for SAR despeckling[J]. Remote Sensing202517(17):2970-2985.

[23]

COZZOLINO DVERDOLIVA LSCARPA Get al. Nonlocal CNN SAR image despeckling[J]. Remote Sensing202012(6): 1006-1028.

[24]

COZZOLINO DVERDOLIVA LSCARPA Get al. Nonlocal SAR image despeckling by convolutional neural networks [C]// IEEE International Geoscience and Remote Sensing Symposium. Yokohama: IEEE, 2019: 5117-5120.

[25]

PLÖTZ TROTH S. Neural nearest neighbors networks[J]. Advances in Neural Information Processing Systems, arXiv preprint arXiv,2018:1810.12575.

[26]

DELEDALLE C ADENIS LTUPIN F. Iterative weighted maximum likelihood denoising with probabilistic patch-based weights[J]. IEEE Transactions on Image Processing200918(12): 2661-2672.

[27]

VALSESIA DFRACASTORO GMAGLI E. Deep graph-convolutional image denoising[J]. IEEE Transactions on Image Processing202029: 8226-8237.

[28]

CRUZ C, FOI A, KATKOVNIK Vet al. Nonlocality-reinforced convolutional neural networks for image denoising[J]. IEEE Signal Processing Letters201825(8): 1216-1220.

[29]

DENIS LDELEDALLE C ATUPIN F. From patches to deep learning: Combining self-similarity and neural networks for SAR image despeckling[C]// IEEE International Geoscience and Remote Sensing Symposium. Yokohama: IEEE,2019: 5113-5116.

[30]

ZENG T JSO H K HLAM E Y. Computational image speckle suppression using block matching and machine learning[J]. Applied Optics201958(7): B39-B45.

[31]

SHEN H FZHOU C XLI Jet al. SAR image despeckling employing a recursive deep CNN prior[J]. IEEE Transactions on Geoscience and Remote Sensing202159(1): 273-286.

[32]

LIU S QLIU TGAO L Let al. Convolutional neural network and guided filtering for SAR image denoising[J]. Remote Sensing201911(6): 702.

[33]

GU FZHANG HWANG C. A two-component deep learning network for SAR image denoising[J]. IEEE Access20208: 17792-17803.

[34]

GOMEZ LOSPINA RFRERY A. Unassisted quantitative evaluation of despeckling filters[J]. Remote Sensing20179(4): 389.

[35]

WANG JXU K. A convolutional neural network SAR image denoising algorithm based on self-learning strategies[J]. Applied Sciences202515(9):4786-4798.

[36]

FANG Y TLIU RPENG Y Net al. Contrastive learning for real SAR image despeckling[J]. ISPRS Journal of Photogrammetry and Remote Sensing2024218: 376-391.

[37]

LEHTINEN JMUNKBERG JHASSELGREN Jet al. Noise 2 Noise: Learning image restoration without clean data[J]. arXiv preprint arXiv2018:1803.04189.

[38]

KIM KYE J C. Noise2score: Tweedie's approach to self-supervised image denoising without clean images[J]. Advances in Neural Information Processing Systems202134: 864-874.

[39]

CHEN JCHEN JCHAO Het al. Image blind denoising with generative adversarial network based noise modeli[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Salt Lake City: IEEE, 2018:3155-3164.

[40]

GULRAJANI IAHMED FARJOVSKY Met al. Improved training of Wasserstein GANs[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems.Red Hook: Curran Associates Inc, 2017:5769-5779.

[41]

ZHANG KZUO W MCHEN Y Jet al. Beyond a Gaussian denoiser: Residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing201726(7): 3142-3155.

[42]

SOLTANAYEV SCHUN S Y. Training deep learning based denoisers without ground truth data[J].arXiv preprint arXiv2018: 1803.01314

[43]

JANG GLEE W, SON S, et al. C2N: Practical generative noise modeling for real-world denoising[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Montreal:IEEE, 2021: 2350-2359.

[44]

ZHANG DZHOU F F. Self-supervised image denoising for real-world images with context-aware transformer[J]. IEEE Access202311: 14340-14349.

[45]

KRULL ABUCHHOLZ T O, JUG F. Noise2void-learning denoising from single noisy images[C]// Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. Long Beach: IEEE, 2019: 2129-2137.

[46]

WANG ZFU YLIU Jet al. Lg-bpn: Local and global blind-patch network for self-supervised real-world denoising[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition.Long Beach: IEEE,2023: 18156-18165.

[47]

LEE W, SON S, LEE K M. AP-BSN: Self-supervised denoising for real-world images via asymmetric pd and blind-spot network[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2022: 17725-17734.

[48]

PAPKOV MCHIZHOV P. SwinIA: Self-supervised blind-spot image denoising with zero convolutions[J]. arXiv preprint arXiv2023:2305.05651.

[49]

HU X RXU Z QCHEN Z Het al. SAR despeckling via regional denoising diffusion probabilistic model[C]//IEEE International Geoscience and Remote Sensing Symposium. Athens: IEEE, 2024: 7226-7230.

[50]

SINGH PSHREE R. A new homomorphic and method noise thresholding based despeckling of SAR image using anisotropic diffusion[J]. Journal of King Saud University-Computer and Information Sciences202032(1): 137-148.

[51]

SINGH PSHREE R. A new computationally improved homomorphic despeckling technique of SAR images[J]. International Journal of Advanced Research in Computer Science20178(3): 894-898.

[52]

LI G TWANG C LHUANG P Pet al. SAR image despeckling using a space-domain filter with alterable window[J]. IEEE Geoscience and Remote Sensing Letters201310(2): 263-267.

[53]

ZHANG LZHANG LMOU X Qet al. FSIM: A feature similarity index for image quality assessment[J]. IEEE Transactions on Image Processing201120(8): 2378-2386.

[54]

ACHIM ATSAKALIDES PBEZERIANOS A. SAR image denoising via Bayesian wavelet shrinkage based on heavy-tailed modeling[J]. IEEE Transactions on Geoscience and Remote Sensing200341(8): 1773-1784.

[55]

SINGH PSHREE R. Statistical quality analysis of wavelet based SAR images in despeckling process[J]. Asian Journal of Electrical Sciences20176(2): 1-18.

[56]

SINGH PSHREE R. Quantitative dual nature analysis of mean square error in SAR image despeckling[J]. International Journal on Computer Science and Engineering20179(11): 619-622.

[57]

MASTRIANI MGIRALDEZ A E. Enhanced directional smoothing algorithm for edge-preserving smoothing of synthetic-aperture radar images[J]. arXiv preprint arXiv2016:1608.01993.

[58]

WANG CZHENG R YZHU J Zet al. A practical SAR despeckling method combining swin transformer and residual CNN[J]. IEEE Geoscience and Remote Sensing Letters202421:4001205 .

[59]

SHEN YCHEN YWANG Yet al. DATNet: Dynamic adaptive transformer network for SAR image denoising[J]. Remote Sensing202517(17):3031-3067.

[60]

PAN Y CZHONG L HCHEN J Det al. SAR image despeckling based on denoising diffusion probabilistic model and swin transformer.[J]. Remote Sensing202416(17):3222-3243.

[61]

WEN Z QHE YYAO Set al. A self-attention multi-scale convolutional neural network method for SAR image despeckling[J]. International Journal of Remote Sensing202344(3): 902-923.

[62]

WANG XGIRSHICK RGUPTA Aet al. Non-local neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Salt Lake City: IEEE, 2018: 7794-7803.

[63]

LI SLI TSUN Cet al. WPConvNet: An interpretable wavelet packet kernel-constrained convolutional network for noise-robust fault diagnosis[J]. IEEE Transactions on Neural Networks and Learning Systems202435(10): 14974-14988.

[64]

ZHAO Y XCHENG J YZHAN Pet al. ECG classification using deep CNN improved by wavelet transform[J]. Computers, Materials and Continua202064(3):1615-1628.

[65]

LI Z ZMA J Y. Learning feature matching via matchable keypoint-assisted graph neural network[J]. IEEE Transactions on Image Processing202534:154-169.

[66]

HAN YHUANG GSONG S Jet al. Dynamic neural networks: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence202244(11): 7436-7456.

基金资助

国家自然科学基金资助项目“海洋动力学与数据双驱动的内孤立波传播智能预测方法研究”(62161044)

内蒙古自治区自然科学基金资助项目“基于海洋动力学和深度学习的海洋内波遥感智能检测方法研究”(2023MS06003)

内蒙古师范大学研究生科研创新基金资助项目“综合遥感与数据驱动方法海洋内波分析与预测”(CXJJS25026)

AI Summary AI Mindmap
PDF (1867KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/