SG-UNet:基于全局注意力和自校准卷积增强的黑色素瘤分割模型

计寰宇 ,  王蕊 ,  高盛祥 ,  车文刚

南方医科大学学报 ›› 2025, Vol. 45 ›› Issue (06) : 1317 -1326.

PDF (3339KB)
南方医科大学学报 ›› 2025, Vol. 45 ›› Issue (06) : 1317 -1326. DOI: 10.12122/j.issn.1673-4254.2025.06.21

SG-UNet:基于全局注意力和自校准卷积增强的黑色素瘤分割模型

作者信息 +

SG-UNet: a melanoma segmentation model enhanced with global attention and self-calibrated convolution

Author information +
文章历史 +
PDF (3418K)

摘要

目的 提出了一种新的黑色素瘤分割模型SG-UNet,以提高黑色素瘤皮肤镜图像的精确分割。通过分割后边界特征评估,可以更准确地识别诊断黑色素瘤从而辅助早期诊断。 方法 使用一种U形结构的卷积神经网络UNet,对其主干、跳跃连接和下采样池化部分进行改进。在主干部分,我们将UNet的下采样部分参考Vgg的结构将卷积数量由10个增加到13个加深网络层次来捕获更加精细的特征表示。为了进一步提升特征提取和细节识别的能力,主干部分将传统的卷积替换为自校准卷积增强模型对空间维度和通道维度特征的捕获能力。同时,在池化部分将哈尔小波下采样替换原有的池化层实现更有效的多尺度特征融合,并降低特征图的空间分辨率。接着将全局注意力机制融入到每一层的跳跃连接中更好地理解图像的上下文信息。 结果 实验结果表明SG-UNet在ISIC 2017和ISIC 2018数据集上的分割效果对比目前其他先进分割模型得到明显提升。在ISIC 2017和ISIC 2018数据集上Dice,IoU分别达到了92.41%,86.62%和92.31%,86.48%。 结论 实验结果证实,所提出的方法能够有效实现黑色素瘤的精确分割。

Abstract

Objective We propose a new melanoma segmentation model, SG-UNet, to enhance the precision of melanoma segmentation in dermascopy images to facilitate early melanoma detection. Methods We utilized a U-shaped convolutional neural network, UNet, and made improvements to its backbone, skip connections, and downsampling pooling sections. In the backbone, with reference to the structure of VGG, we increased the number of convolutions from 10 to 13 in the downsampling part of UNet to achieve a deepened network hierarchy that allowed capture of more refined feature representations. To further enhance feature extraction and detail recognition, we replaced the traditional convolution the backbone section with self-calibrated convolution to enhance the model's ability to capture both spatial and channel dimensional features. In the pooling part, the original pooling layer was replaced by Haar wavelet downsampling to achieve more effective multi-scale feature fusion and reduce the spatial resolution of the feature map. The global attention mechanism was then incorporated into the skip connections at each layer to enhance the understanding of contextual information of the image. Results The experimental results showed that the SG-UNet model achieved significantly improved segmentation accuracy on ISIC 2017 and ISIC 2018 datasets as compared with other current state-of-the-art segmentation models, with Dice reached 92.41% and 86.62% and IoU reaching 92.31% and 86.48% on the two datasets, respectively. Conclusion The proposed model is capable of effective and accurate segmentation of melanoma from dermoscopy images.

Graphical abstract

关键词

图像分割 / 全局注意力机制 / 黑色素瘤 / UNet / 自校准卷积 / 哈尔小波下采样 / SG-UNet

Key words

image segmentation / global attention mechanism / melanoma / UNet / self-calibrated convolution / Haar wavelet downsampling / SG-UNet

引用本文

引用格式 ▾
计寰宇,王蕊,高盛祥,车文刚. SG-UNet:基于全局注意力和自校准卷积增强的黑色素瘤分割模型[J]. 南方医科大学学报, 2025, 45(06): 1317-1326 DOI:10.12122/j.issn.1673-4254.2025.06.21

登录浏览全文

4963

注册一个新账户 忘记密码

黑色素瘤是一种危险的,高度侵袭性的皮肤肿瘤,其特征为快速生长、易于转移和预后不良1。其早期诊断和治疗至关重要。在医学影像分析中,黑色素瘤的准确分割对于提高治疗效果和预后评估具有重要意义。在黑色素瘤治疗领域,尽管取得了显著的进展,但医学图像中黑色素瘤的准确分割仍然是一个技术难题。黑色素瘤的形态复杂多变,使得传统分割方法难以应对2。一些皮肤病变的皮肤镜图像展示了这种复杂性,如边界模糊且存在毛发干扰;面积较大且边界不清晰;对比度低等3。在这种情况下,UNet4架构因其有效的特征提取编码路径和对称的解码路径结合而成为生物医学图像分割的突出模型,这使得精确定位成为可能。但是标准UNet的性能可能受到其统一卷积滤波器的限制,这些滤波器可能无法适应黑色素瘤图像中存在的多样化纹理和模式。随着深度学习技术的发展,基于深度神经网络的方法在图像分割领域取得了显著进展。特别是全连接网络(FCN)5和U-Net等模型4,它们通过端到端的训练方式,能够自动学习图像特征,提高了分割的准确性。然而,黑色素瘤的边缘区域模糊,呈现出不规则的形状。使用卷积操作来提取特征具有局部性,难以捕捉长距离依赖关系6。虽然UNet其跳跃连接使得网络在解码阶段利用低层次的细节信息来恢复黑色素瘤分割边界,从而弥补卷积操作局部性导致的细节丢失。但是编码器浅层特征(如边缘、纹理)与解码器深层特征(如病变区域)之间的语义不匹配问题7。这些都可能导致在处理具有复杂形状和模糊边界的皮肤病变分割任务时分割结果不够理想,仍然存在一定的局限性8
为了应对这些挑战,我们提出了一种新的方法SG-UNet,该方法通过整合全局注意力机制(GAM)9和自校准卷积(SCConv)10来增强UNet架构,以提高分割过程的精确率。并且能够捕捉到通常难以被固定卷积滤波器捕捉到的黑色素瘤边缘的细微之处。通过整合全局注意力机制(GAM)和自校准卷积(SCConv )以及哈尔小波下采样(HWD)11来增强U-Net架构,以提高对黑色素瘤的分割精度。通过这种方式,我们希望能够更好地应对现有方法在处理复杂黑色素瘤图像时面临的挑战。

1 资料和方法

1.1 SG-UNet

蓝色箭头表示数据流的方向,红色箭头表示跳跃连接。在红色箭头旁边标示了特征图拼接后的维度。该模型精巧地融合了编码器块(SCConv Block)、解码器块(Decoder Block)、4个全局注意力的跳跃连接(GAM)以及输出层,还包括了哈尔小波下采样(HWD)模块。编码器从输入卷积层开始,紧随其后的是5个专门设计的SCConv单元,这些单元致力于高效地从输入的黑色素图像中提取关键特征。全局注意力机制(GAM)嵌入于跳跃连接之中,作为一个全局注意力门模块,它将编码器的特征与相应的解码器层巧妙地连接起来,整合并加权来自编码器和解码器的特征,以增强特征的表达能力。输出层由一个1×1的卷积层组成,其后接Sigmoid函数,这一设计能够将特征图的通道数调整至与输入图像相匹配,并将每个像素精确分类为黑色素瘤或非黑色素区域(图1)。

1.1.1 注意力机制

注意力机制的功能允许模型在处理信息时动态地分配不同的关注度到不同的信息片段。在计算机视觉领域,注意力机制被用来增强深度学习模型对于图像中特定区域的关注能力12。这种机制允许模型在进行图像分析时,如目标识别、图像分割或者场景理解等任务,动态地识别并集中处理那些对于当前视觉任务最为重要的特征或区域。也可以帮助模型更好地处理图像中的噪声和异常情况。在医学图像分割领域,由于标注数据的稀缺和昂贵13,注意力机制尤其有用,它可以帮助模型在有限的标注数据下学习并进行准确的分割。

1.1.2 GAM

全局注意力机制旨在提升深度神经网络在处理图像数据时的性能。GAM通过强化模型在通道和空间维度之间的交互作用,显著减少了信息的丢失,并增强了全局特征的交互,从而提升了模型的整体性能和泛化能力(图2)。

GAM的核心优势在于其能够引导模型更加聚焦于图像中的关键目标区域。通过引入GAM,模型的注意力分配变得更加精细和有针对性。在图3中展示的黑色素瘤热力图中,我们可以直观地看到GAM对模型关注度的影响。图中红色区域代表模型识别出的关键目标区域,而颜色的深浅程度则直观地反映了模型对这些区域的关注度——颜色越深,表明模型对该区域的关注度越高。相反,蓝色区域则表示模型认为与目标无关的区域,即非目标区域。

GAM的核心思想是在通道和空间两个维度上同时进行注意力计算,以增强跨维度的交互作用。它包含两个部分:通道注意力和空间注意力。通道注意力与CBAM14不同在于使用了3D置换用于保持通道、空间宽度、空间高度之间的信息。空间注意力关注于增强特征图中重要空间位置的特征。输入特征T1经过通道注意力机制M1后与原始T1进行逐元素相乘,如公式(1)所示。通过空间注意力机制M2得到目标特征图T2,如公式(2)所示。

F1=M1(T1)T1
T2=M2(F1)F1

1.1.2.1 Channel Attention

通道注意力模块通过MLP接收输入特征图,并将其通道数从C降低到C/r(r为降维比率),随后再映射回C。这种降维操作减少了参数数量,防止过拟合,同时通过非线性激活函数ReLU增加了模型的表达能力。每个通道都会生成一个对应的权重或注意力分数,用于增强特征图的表达能力。

公式(3)所示。F3表示输入的特征图,用W1和W2分别表示MLP中降维和升维的权重,用σ表示Sigmoid函数。

F4=σ(W2ReLU(W1F3))

1.1.2.2 Spatial Attention

GAM通过两个卷积层融合空间信息,识别图像中的重要区域。与通道注意力类似,空间注意力也使用了降维比率,但去除了池化操作,避免了过多信息的丢失。这种设计使得模型能够更精准地定位病变区域。

1.1.3 SCConv

传统的卷积操作在空间和通道维度上是固定的,这限制了模型对不同黑色素瘤尺寸和形状特征的表示能力。SCConv首先将输入的特征图分成两个部分进行处理(图4)。第一部分将特征图X2通过自校准模块在卷积层中引入自校准的权重调整机制,从而更好地适应不同复杂边界及形状的黑色素瘤。第二部分则是直接对特征图X1进行卷积,其目的是为了保存原始空间上下文信息。最后将两部分的特征图进行拼接得到最终特征。

1.1.3.1 Self-calibration

类似分组卷积15,自校准卷积也是将输入通道分成不同的组进行独立卷积。但是与传统分组卷积不同的是,自校准模块中分成多个分支后,对于每个分支都进行不同功能处理,每一个分支有着自己不同的任务。如图4中给定的输入X2通过3个分支进行独立操作,首先经过一个4×4,步长为4的平均池化。之后经过卷积操作得到F2,如公式(4)所示,“*”表示卷积运算。

将特征F2与原始特征X2进行相加,并对特征F2进行上采样,如公式(5)所示。Up(·)表示从小尺度空间映射到原始特征空间的双线性插值算子。“·”表示逐元相乘,σ表示Sigmoid函数。最终输出如公式(6)所示:

F2 = AvgPool4(X2)* K
F2' = Up(F2)
Y2 = X2 * K · σ(X2 +F2') * K

1.1.4 HWD

HWD模块通过应用Haar小波变换,在不丢失关键信息的前提下,降低了其分辨率。这种策略使得模型能够在保持数据丰富度的同时,减少计算负担16。模型能够进一步学习到更具代表性的特征,并有效过滤掉冗余信息。主要优势在于其能够在下采样过程中保留重要的空间信息,这通常在传统的下采样技术中容易被忽略。有效地避免了在缩小特征图尺寸时可能丢失的细节,这些细节对于精确的图像分割是不可或缺的。如图5所示主要由两个核心部分组成:信息保留编码模块和特征选择模块。信息保留编码模块利用Haar小波变换生成高频和低频信息,这些信息分别对应于图像的边缘、纹理和整体亮度等关键视觉特征。特征选择模块则通过1×1的卷积操作和激活函数进一步提炼特征,优化特征图的表示,使其更加适合于后续的分割任务。

1.1.4.1 信息保留模块

信息保留编码模块中主要是Haar小波变换对输入图像进行小波变换生成高频信息(细节分量)和低频信息(近似分量),其中高频信息是指图像中的边缘、纹理和噪声相关。这些信息对于图像的清晰度和细节至关重要。低频信息通常与图像的整体亮度、阴影和大范围的纹理变化相关。输入图片X后Haar小波变换生成高频和低频信息通过hhigh(高通滤波器,允许高频信息通过)和hlow(低通滤波器,允许低频信息通过)滤波器17之后通过2↓降低分辨率得到4个分量每个分量的空间分辨率是原始图像的一半,D(对角高频信息),V(垂直高频信息),H(水平高频信息),A(低频信息)。最后将4个分量在通道维度上进行拼接(图6)。图7为黑色素瘤进行Haar小波变换后分别得到的A,H,V,D 4个分量信息。

二维Haar小波18变换如公式(7)(8)(9)(10)所示,原始图像为f(x,y),其中(x,y)表示图像上的像素坐标。对原始图像进行Haar小波变换,得到A,H,V和D四个分量图像。hhigh和hlow分别表示高通滤波器和低通滤波器,*表示卷积操作,T表示转置操作。

A(x,y)=(f*hlow)(x,y)
H(x,y)=(f*hhigh)(x,y)
V(x,y)=(f*hlowT)(x,y)
D(x,y)=(f*hhighT)(x,y)

1.1.4.2 特征选择模块

在HWD模块中使用1×1的卷积来调整特征图的通道数,以及使用批量归一化和ReLU激活函数来进一步提取和精炼特征。这些操作有助于从下采样后的特征图中学习到更具代表性的特征,从而提高语义分割的性能。通过这种方式,HWD模块旨在减少传统下采样操作(如最大池化或步幅卷积)可能造成的重要空间信息丢失,从而在保持计算效率的同时提高分割精度。

1.2 实验数据集和实验环境

1.2.1 实验数据集

本文采用的数据集全部来自ISIC(国际皮肤成像协作项目),ISIC是一个致力于皮肤癌诊断研究的国际性项目,它提供了大量的皮肤病变图像数据集,用于支持计算机视觉和机器学习领域的研究。我们使用ISIC 201719和ISIC 201820Task1部分用于皮肤病变分割。数据集Task1部分均采用CC-0协议。

这些图像由专业医生审查,并且提供了由专业医生精确划分的的掩码图,用于指导皮肤病变的分割21。因此,该数据集在用于皮肤病变分割广泛认可且是在皮肤分割领域权威数据集之一。

1.2.2 实验环境和参数设置

实验的硬件部分主要在AutoDL的云服务器上进行部署,所有实验都基于 Python3.8 和 Pytorch2.1.1,并在2张拥有24G的NVIDIA GeForce RTX 3090 GPU 上实现。对于训练数据,我们使用了数据增强(缩放、扭曲和翻转)来提高数据的多样性。输入图像大小设置为 512×512像素,使用Dice Loss函数,训练epoch设置为100,批量大小为8,线程个数为2。使用Adam作为优化器,初始学习粒度设置为0.0001,使用余弦退火学习粒度调度器,最小学习率设置为0.000 001。

1.2.3 损失函数

本实验主要使用Dice Loss22,它是一种常用在图像分割任务中的损失函数,用于衡量预测结果与真实值标签的相似性。Dice Loss的计算公式如下公式(11)

Dice Loss = 1-2XYX+Y

1.2.4 评价指标

本文采用Dice系数、交并比(IoU)、召回率(Recall)、精确率(Precision)来评估模型性能。如下公式(12)(13)(14)(15)所示:

Dice=2TP/(2TP+FP+FN)
IoU=TP/(FN+FP+TP)
Recall=TP/(FN+TP)
Precision=TP/(FP+TP)

其中,TP、TN、FP 和 FN 分别表示准确划定为黑色素瘤像素数量、准确识别为背景的像素数量、误分类为黑色素瘤的背景像素数量以及误分类为背景的黑色素瘤像素数量。召回率也称为敏感性或真阳性率,它衡量的是模型识别出的真实黑色素瘤区域的比例,召回率高意味着模型能够捕捉到更多的真实黑色素瘤区域;精确度衡量的是模型预测的黑色素瘤区域中实际为黑色素瘤的比例,精确度高意味着模型预测的黑色素瘤区域更有可能是真实的黑色素瘤;IoU衡量的是模型预测的黑色素瘤区域与真实黑色素瘤区域之间的重叠程度,IoU值越高,说明模型预测的黑色素瘤区域与真实区域的重叠度越高,分割效果越好23;Dice系数24是另一种衡量预测区域与真实区域相似度的指标,Dice系数越高,表明模型的分割效果越好。

2 结果

2.1 SG-UNet模型实验结果

模型按照上述1.2.2中的参数设置进行了100轮次的训练最终在ISIC 2017数据集上,模型的Dice系数达到了92.41%,IoU为86.62%,Recall和Precision分别达到了93.70%和91.80%。

在ISIC 2018数据集上,模型的表现同样出色,Dice,IoU,Recall,Precision分别为92.34%,86.48%,93.05%,92.21%(图8)。

2.2 对比试验结果

选取ISIC 2017和ISIC 2018两个皮肤病变数据集,并选用4个关键的性能指标Dice系数、IoU、Recall和Precision来评估各模型的表现。将SG-UNet与现有的先进模型进行了对比实验。其中UNet4、UNet++[25]、AttUNet26、ResUNet27、ResUNet++[28]是在相同参数设置和环境下进行实验得到的数据。另外FAT-Net7、CA-net29、CKDNet30、CPFNet31、MB-DCNN32、DAGAN33、PraNet34、SESV35的实验结果来自 MSCNet36,其中FAT-Net7、SESV35、DAGAN33、CPFNet31、CKDNet30、MB-DCNN32没有给出这些方法的精度。

表1表2展示了在ISIC 2017和ISIC 2018数据集上模型的实验结果。从数据中可以明显看出,SG-UNet在ISIC 2017数据集上的表现尤为突出,Dice系数达到了92.41%,IoU为86.62%,Recall为93.70%,Precision为91.80%,在所有参与对比的模型中均位居首位。与基准模型UNet相比,SG-UNet在Dice系数、IoU、Recall和Precision上分别提升了3.21%、4.64%、2.46%和2.99%。

2.3 消融实验

表3表4展示了在ISIC 2017和ISIC 2018数据集上进行消融实验的结果。实验首先从基准模型UNet开始,逐步修改下采样中的网络深度再引入哈尔小波下采样(HWD)、自校准卷积(SCConv)和全局注意力机制(GAM)3个关键模块。表4的结果显示,我们在结合VGG13、VGG16和VGG19网络结构的基础上,对U-Net下采样阶段的卷积深度进行了优化调整。我们将卷积层的深度从10层逐步增加至13层、16层,并对模型性能进行了实验评估。实验结果显示,Baseline的Dice和IoU分别为89.46%,82.13%。随着卷积深度的逐渐增加由10层增加到13后Dice和IoU分别为90.17%,83.06%,模型性能确实有所提升。然而当深度进一步增加至13层以上到16层时Dice和IoU分别为89.71%,82.53%性能提升的效果开始逐渐减弱。

为了保留重要的空间信息和多尺度特征融合,通过将传统的下采样替换为HWD,通过Haar小波变换,在下采样过程中生成高频和低频信息。模型在Dice、IoU、Recall和Precision四个指标上的表现分别为Dice提升了1.85%,IoU提升了2.56%,Recall提升了0.96%,Precision提升了1.92%。此外为了增强对关键特征的关注并提升全局信息交互能力,我们在UNet的跳跃连接中引入了全局注意力模块(GAM),增强了特征图中重要区域的特征表达。Dice、IoU、Recall和Precision分别提升了2.19%,3.07%,1.7%,1.94%。

最后,我们将SG-UNet编码层中的传统卷积替换为SCConv。通过其独特的自校准权重调整机制,显著提升了模型在处理黑色素瘤图像时对复杂边界和形状变化的适应能力。最终模型达到了92.41%的Dice、86.62%的IoU、93.70%的Recall和91.80%的Precision。

2.4 分割结果对比

图9图10提供了一个直观的分割展示,用以比较不同模型在黑色素瘤分割任务中的表现。通过这些图像,我们可以清晰地观察到,在处理边界清晰、周围干扰较少的黑色素瘤图像时,多数模型都能够较为准确地识别并分割出病变区域。然而,当遇到如图10中第2和第3张所示的边界不规则且存在毛发等干扰因素的复杂情况时,其他6个模型的分割效果便出现了明显的偏差。

3 讨论

本研究提出的SG-UNet模型旨在提升黑色素瘤复杂边界的识别精度,这是本研究的核心难点和重点。通过将编码阶段中的卷积和池化层替换为自校准卷积和哈尔小波下采样,SG-UNet有效提高了特征提取精度,减少了在下采样过程中降低图像分辨率导致的细节损失。此外,在跳跃连接中引入全局注意力机制,能够聚焦于多尺度黑色素瘤图像中的关键病灶区域。

实验结果表明,SG-UNet模型在黑色素瘤分割任务中取得了显著的性能提升。与UNet相比Dice和IoU指标分别提升了2.88%和4.25%;与MSCNet相比分别提升了1.42%和3.15%。消融实验进一步验证了全局注意力机制(GAM)、自校准卷积(SCConv)和哈尔小波下采样(HWD)各模块之间的协同作用对性能提升的重要贡献,最终使Dice和IoU分别达到92.34%和86.48%。

通过视觉对比图,我们可以清晰地看到SG-UNet在处理边界不规则且存在毛发等干扰因素的复杂图像时,相较于其他模型,不仅能够更精准地识别并分割出病变区域,而且在分割的精确度和细节处理上也表现出显著优势。

综上所述,SG-UNet模型在黑色素瘤分割任务中展现出高效、准确的分割能力,具有巨大的应用潜力。然而在边界模糊和存在毛发等多重干扰的情况下,模型的分割精度有所下降,且计算复杂度增加。未来的工作将集中在进一步优化模型结构,以提高其在复杂情况下的鲁棒性。我们将探索设计更加轻量级的分割模型减少参数数量和计算复杂度,同时保持或提升分割精度。此外,我们还将针对复杂边界和多尺度特征进行专门的改进,以更好地应对实际应用中的挑战。在此基础上我们还将探索该模型在其他类型的医学图像分割任务中的应用,以验证其泛化能力。

参考文献

[1]

Mateen M, Hayat S, Arshad F, et al. Hybrid deep learning framework for melanoma diagnosis using dermoscopic medical images[J]. Diagnostics, 2024, 14(19): 2242. doi:10.3390/diagnostics14192242

[2]

Ali AR, Li JP, O'Shea SJ, et al. A deep learning based approach to skin lesion border extraction with a novel edge detector in dermoscopy images[C]//2019 International Joint Conference on Neural Networks (IJCNN). July 14-19, 2019, Budapest, Hungary. IEEE, 2019: 1-7. doi:10.1109/ijcnn.2019.8852134

[3]

Ali AR, Li JP, Yang G, et al. A machine learning approach to automatic detection of irregularity in skin lesion border using dermoscopic images[J]. PeerJ Comput Sci, 2020, 6: e268. doi:10.7717/peerj-cs.268

[4]

Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[M]//Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015. Cham: Springer International Publishing, 2015: 234-41. doi:10.1007/978-3-319-24574-4_28

[5]

Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 7-12, 2015, Boston, MA, USA. IEEE, 2015: 3431-40. doi:10.1109/cvpr.2015.7298965

[6]

Wang G, Ma QS, Li YY, et al. A skin lesion segmentation network with edge and body fusion[J]. Appl Soft Comput, 2025, 170: 112683. doi:10.1016/j.asoc.2024.112683

[7]

Wu HS, Chen SH, Chen GL, et al. FAT-Net: Feature adaptive transformers for automated skin lesion segmentation[J]. Med Image Anal, 2022, 76: 102327. doi:10.1016/j.media.2021.102327

[8]

王 娜, 贾 伟, 赵雪芬, . 基于边缘关键点和边缘注意力的黑色素瘤图像分割方法[J].中国医学物理学杂志 [J]. 2024, 41(10): 1225-36.

[9]

Liu Y, Shao Z, Hoffmann N. Global attention mechanism: Retain information to enhance channel-spatial interactions [J]. 2021, DOI:10.48550/arXiv.2112.05561 .

[10]

Liu JJ, Hou QB, Cheng MM, et al. Improving convolutional networks with self-calibrated convolutions[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 10093-102. doi:10.1109/cvpr42600.2020.01011

[11]

Xu GP, Liao WT, Zhang X, et al. Haar wavelet downsampling: a simple but effective downsampling module for semantic segmentation[J]. Pattern Recognit, 2023, 143: 109819. doi:10.1016/j.patcog.2023.109819

[12]

Niu ZY, Zhong GQ, Yu H. A review on the attention mechanism of deep learning[J]. Neurocomputing, 2021, 452: 48-62. doi:10.1016/j.neucom.2021.03.091

[13]

Upadhyay AK, Bhandari AK. Advances in deep learning models for resolving medical image segmentation data scarcity problem: a topical review[J]. Arch Comput Meth Eng, 2024, 31(3): 1701-19. doi:10.1007/s11831-023-10028-9

[14]

Woo S, Park J, Lee JY, et al. CBAM: convolutional block attention module[M]//Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 3-19. doi:10.1007/978-3-030-01234-2_1

[15]

Ioannou Y, Robertson D, Cipolla R, et al. Deep roots: improving CNN efficiency with hierarchical filter groups[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 5977-86. doi:10.1109/cvpr.2017.633

[16]

Porwik P, Lisowska A. The haar–wavelet transform in digital image processing: its status and achievements[J]. Instit Comp Sci, 2004,13:79-98.

[17]

Makandar A, Halalli B. Image enhancement techniques using highpass and lowpass filters[J]. Int J Comput Appl, 2015, 109(14): 21-7. doi:10.5120/19256-0999

[18]

Zaynidinov H. Digital image processing with two-dimensional haar wavelets[J]. Int J Adv Trends Comput Sci Eng, 2020, 9(3): 2729-34. doi:10.30534/ijatcse/2020/38932020

[19]

Codella NCF, Gutman D, Celebi ME, et al. Skin lesion analysis toward melanoma detection: a challenge at the 2017 International symposium on biomedical imaging (ISBI), hosted by the international skin imaging collaboration (ISIC)[C]//2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018). April 4-7, 2018, Washington, DC, USA. IEEE, 2018: 168-72. doi:10.1109/isbi.2018.8363547

[20]

Codella N, Rotemberg V, Tschandl P, et al. Skin lesion analysis toward melanoma detection 2018: a challenge hosted by the international skin imaging collaboration (ISIC)[EB/OL]. 2019: 1902.03368. doi:10.48550/arXiv.1902.03368

[21]

Jiang HY, Diao ZS, Shi TY, et al. A review of deep learning-based multiple-lesion recognition from medical images: classification, detection and segmentation[J]. Comput Biol Med, 2023, 157: 106726. doi:10.1016/j.compbiomed.2023.106726

[22]

Soomro TA, Afifi AJ, Gao JB, et al. Strided U-Net model: retinal vessels segmentation using dice loss[C]//2018 Digital Image Computing: Techniques and Applications (DICTA). December 10-13, 2018, Canberra, ACT, Australia. IEEE, 2018: 1-8. doi:10.1109/dicta.2018.8615770

[23]

Cheng BW, Girshick R, Dollár P, et al. Boundary IoU: improving object-centric image segmentation evaluation[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 20-25, 2021, Nashville, TN, USA. IEEE, 2021: 15329-37. doi:10.1109/cvpr46437.2021.01508

[24]

Shamir RR, Duchin Y, Kim J, et al. Continuous dice coefficient: a method for evaluating probabilistic segmentations [J]. 2018, DOI:10.1101/306977 .

[25]

Zhou ZW, Siddiquee MMR, Tajbakhsh N, et al. UNet++: redesigning skip connections to exploit multiscale features in image segmentation[J]. IEEE Trans Med Imaging, 2020, 39(6): 1856-67. doi:10.1109/tmi.2019.2959609

[26]

Wang SH, Li L, Zhuang XH. AttU-NET: attention U-Net for brain tumor segmentation[M]//Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries. Cham: Springer International Publishing, 2022: 302-11. doi:10.1007/978-3-031-09002-8_27

[27]

Rahman H, Bukht TFN, Imran A, et al. A deep learning approach for liver and tumor segmentation in CT images using ResUNet[J]. Bioengineering, 2022, 9(8): 368. doi:10.3390/bioengineering9080368

[28]

Jha D, Smedsrud PH, Riegler MA, et al. ResUNet: an advanced architecture for medical image segmentation[C]//2019 IEEE International Symposium on Multimedia (ISM). December 9-11, 2019, San Diego, CA, USA. IEEE, 2019: 225-2255. doi:10.1109/ism46123.2019.00049

[29]

Gu R, Wang GT, Song T, et al. CA-net: comprehensive attention convolutional neural networks for explainable medical image segmentation[J]. IEEE Trans Med Imaging, 2021, 40(2): 699-711. doi:10.1109/tmi.2020.3035253

[30]

Jin QG, Cui H, Sun CM, et al. Cascade knowledge diffusion network for skin lesion diagnosis and segmentation[J]. Appl Soft Comput, 2021, 99: 106881. doi:10.1016/j.asoc.2020.106881

[31]

Feng SL, Zhao HM, Shi F, et al. CPFNet: context pyramid fusion network for medical image segmentation[J]. IEEE Trans Med Imaging, 2020, 39(10): 3008-18. doi:10.1109/tmi.2020.2983721

[32]

Xie YT, Zhang JP, Xia Y, et al. A mutual bootstrapping model for automated skin lesion segmentation and classification[J]. IEEE Trans Med Imaging, 2020, 39(7): 2482-93. doi:10.1109/tmi.2020.2972964

[33]

Yang G, Yu SM, Dong H, et al. DAGAN: deep de-aliasing generative adversarial networks for fast compressed sensing MRI reconstruction[J]. IEEE Trans Med Imaging, 2018, 37(6): 1310-21. doi:10.1109/tmi.2017.2785879

[34]

Fan DP, Ji GP, Zhou T, et al. PraNet: parallel reverse attention network for polyp segmentation[M]//Medical Image Computing and Computer Assisted Intervention-MICCAI 2020. Cham: Springer International Publishing, 2020: 263-73. doi:10.1007/978-3-030-59725-2_26

[35]

Xie YT, Zhang JP, Lu H, et al. SESV: accurate medical image segmentation by predicting and correcting errors[J]. IEEE Trans Med Imag, 2021, 40(1): 286-96. doi:10.1109/tmi.2020.3025308

[36]

Li Z, Zhang L. Multi-scale context fusion network for melanoma segmentation[J]. KSII Trans Internet Inf Syst, 2024, 18(7): 1888-906. doi:10.3837/tiis.2024.07.009

基金资助

RIGHTS & PERMISSIONS

版权所有©《南方医科大学学报》编辑部2021

AI Summary AI Mindmap
PDF (3339KB)

145

访问

0

被引

详细

导航
相关文章

AI思维导图

/