基于置信学习和协同训练的医学图像分割方法

赵宏伟 ,  周明珠 ,  刘萍萍 ,  周求湛

吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (05) : 1675 -1681.

PDF (773KB)
吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (05) : 1675 -1681. DOI: 10.13229/j.cnki.jdxbgxb.20230833
计算机科学与技术

基于置信学习和协同训练的医学图像分割方法

作者信息 +

Medical image segmentation based on confident learning and collaborative training

Author information +
文章历史 +
PDF (791K)

摘要

在医学图像低质量标注数据的训练中,置信学习发挥了重要的作用,但目前置信学习的应用均基于平均教师模型,并未探讨在其它网络上的可能性。针对该问题,提出了基于置信学习和协同训练的分割模型。该模型使用两个不同的网络,鼓励两网络的输出结果一致,接着将其中一网络的输出利用置信学习同原低质量标注进行对比,修正低质量标注数据从而使其提供有效训练参考。将提出模型在3个不同模态的医学图像数据集上进行对比,实验结果表明:提出模型的分割效果均优于已有的置信学习模型。

Abstract

Confident learning plays an important role in the training of low-quality labeled data of medical images, but the current application of confident learning is based on the mean teacher model, and the possibility on other networks is not discussed. To solve this problem, a segmentation model based on confident learning and collaborative training is proposed in this paper. The model uses two different networks, encourages the output of the two networks to be consistent, and then compares the output of one network with the original low-quality label by using confident learning to modify the low-quality labeled data so as to provide an effective training reference. The proposed model has been compared on three different modal medical image datasets, and the experimental results show that the segmentation effect of the model is better than that of the existing confident learning model.

Graphical abstract

关键词

计算机应用 / 医学图像分割 / 置信学习 / 协同训练

Key words

computer application / medical image segmentation / confident learning / collaborative training

引用本文

引用格式 ▾
赵宏伟,周明珠,刘萍萍,周求湛. 基于置信学习和协同训练的医学图像分割方法[J]. 吉林大学学报(工学版), 2025, 55(05): 1675-1681 DOI:10.13229/j.cnki.jdxbgxb.20230833

登录浏览全文

4963

注册一个新账户 忘记密码

0 引 言

随着科学技术的快速发展,深度学习在医学图像分割领域发挥着越来越重要的作用,在不同模态的器官和病灶分割上均获得了较好的效果。例如,MRI的脑肿瘤分割1、眼底图像的视网膜血管分割2以及CT的肝脏分割3等。然而,此类医学图像由于形状不规则及边界模糊等问题,通常标注难度较大,因此,对分割模型进行训练也往往面临高质量标注数据集的缺乏问题。

一方面,如果没有足够的高质量标注,模型很容易与小规模的训练数据过拟合。另一方面,直接使用低质量标注的噪声数据很可能会使网络混乱,性能下降。针对噪声数据的问题,Ren等4提出为噪声标记的样本分配较低的权重,减轻噪声数据带来的影响;Goldberger等5提出对标签腐蚀过程进行建模以及Northcutt等6提出了置信学习的方法,找出错误样本并对其进行修正。以上方法均对噪声数据加以一定的限制,在模型训练上取得了较好的效果。然而,此类方法的研究主要集中在图像级的噪声数据分类上,在像素级的噪声数据分割中应用较少。对此,Luo等7提出了基于强弱双分支网络的半监督语义分割方法,在对低质量标注数据进行有效利用的同时消除了两类数据间的相互影响;Xu等8提出了基于置信学习的平均教师模型(Mean-teacher-assisted confident learning,MTCL),利用置信学习以对像素级噪声进行更正,成功将置信学习引入医学图像分割中。

然而,置信学习方法一直是与平均教师模型结合应用,基于置信学习方法的模型过于单一,为了进一步提升医学图像含噪声数据集的分割效果,探究其他模型同置信学习结合的可能性,本文提出了基于置信学习和协同训练(Co-training-assisted confident learning,CTCL)的医学图像分割算法。协同训练由Blum等9提出,基于协同训练的策略假设每个数据具有两幅不同的视图,每幅视图可以独立地给出预测,并且鼓励这两幅视图上的预测具有一致性。而使用不同的模型进行预测是提供不同视图的常用方法之一,因此,本文构造Transformer和CNN两个不同的网络来进行协同训练,使用Transformer来辅助CNN的训练,在相同输入情况下鼓励二者的输出保持一致,最后利用CNN的输出作为参照,结合置信学习对噪声数据进行识别和修正并加入下一轮的训练。在不同医学图像公开数据集上进行的实验表明:本文提出的模型不仅拓宽了置信学习的利用广度,并且相较于目前已有基于置信学习的平均教师模型分割效果更好。

1 算法描述

本文提出了一种基于置信学习和协同训练的分割模型,实现了不同模态下医学图像的分割。下面将详细介绍此分割模型以及对应的损失函数。

1.1 基于置信学习的协同训练模型

1.1.1 协同训练模型

本文提出的协同训练模型由一个CNN网络和一个Transformer网络构成,如图1所示。

预处理后的训练集图片分为两种:一类有完整标签,另一类对应加噪标签。将两类图片分别输入CNN和Transformer网络中进行预测,得到4组预测标签。对有完整标签的2组,用预测标签与完整标签进行有监督学习,计算监督损失LsupcLsupt。对有噪声标签的2组,鼓励CNN和Transformer输出一致,计算2组预测标签间的协同训练损失Lco-trainingcLco-trainingt。此外,对有噪声标签的2组,以CNN的预测作为标准,将原噪声标签与CNN的预测标签通过置信学习模块进行比对,识别出噪声,再通过置信学习的优化步骤进行优化,得到去噪后的标签,用去噪后的标签与图片对应的Transformer的预测标签间计算损失Lcl。最后,用去噪后的标签替代原噪声标签进入下一轮训练,实现逐步去噪和模型分割准确度的逐步提升。训练结束后,将测试集载入模型,以CNN的预测作为最终分割结果。

1.1.2 置信学习去噪

单独的协同训练模型在噪声标签数据的训练上效果改善是有限的,因此,本文引入置信学习策略,在降低模型过拟合风险的同时提升最终的分割效果。置信学习去噪具体包括以下3个步骤:

(1)估计噪声标签和CNN预测标签的联合分布。令数据集表示为D:=(x,y˜)n,其中,样本为x,一共有n个,噪声标签为y˜,共m种类别,将CNN预测标签作为真实标签y*,噪声标签和真实标签的联合分布表示为Qy˜,y*

首先,需要对数据集进行交叉验证,计算第i个样本在第j个类别下的概率P[i][j],取到j个类别中的最大概率argmaxjP[i][j]作为真实标签y*

y˜取到j的平均概率为t[j],同时根据计算的概率统得到关于类别的计数矩阵。令噪声标签为y˜但真实标签为y*的样本统计表示为Cy˜,y*,由于计数总和与原先标记样本总数不同,所以需要对其以加权的形式进行标定至相同,标定后计数矩阵公式如下:

C˜y˜=i,y*=j=Cy˜=i,y*=jj1,2,3,,m Cy˜=i,y*=j×Xy˜=i

式中:|Xy˜=i|y˜取到标签i的样本总数,最后可计算得到噪声标签和真实标签的联合分布:

Qy˜=i,y*=j=C˜y˜=i,y*=ji1,,m,j1,,m C˜y˜=i,y*=j

(2)找出并过滤掉错误样本。得到噪声标签和CNN预测标签的联合分布后,本文采用按类别筛选和按含噪比两者结合找出噪声标签中的错误样本。

找出错误样本后,利用平滑去噪方法,将识别出的噪声图同原噪声标签进行拼接,过滤掉识别出的噪声,得到此轮去噪后的标签。

(3)去噪后的标签加入下一轮重新训练。在过滤掉错误样本后,根据联合分布Qy˜,y*对类别i的损失权重进行修正后,用去噪后的标签替换掉原来的噪声标签,加入下一轮的训练,从而实现循环更新优化,逐渐细化标签噪声。

1.2 损失函数

整体的损失函数由3部分组成:监督学习损失函数Lsup、协同训练损失函数Lco-training以及置信学习识别修改后的交叉熵损失函数Lcl

3个数据集的训练集均由两部分组成:带标注的数据Dl=xi,yi;i1,,Bl和噪声标注的数据Dn=xi,y˜;i1,,Bn,其中Bl表示带标注的数据的数量,Bn表示噪声标注的数据的数量。

令交叉熵损失表示为lce,Dice损失表示为ldice,其定义分如式(3)(4)所示:

lce=-pylog py^-1-py log1-py^
ldice=1-2XYX+Y

式中:py为真实的分割图像中每个像素的概率分布;py^为模型预测的分割图像中每个像素的概率分布;X为真实标签的分割图像;Y为预测的分割图像。

令Sigmoid函数表示为:

σt=11+e-t

对带标注的数据Dl,将图片样本xi分别输入模型中,得到CNN对应的预测pic和Transformer对应的预测pit,预测标签和原标注标签之间做有监督损失,计算公式如下:

Lsupc=0.5×lceσpic,yi+ldiceσpic,yi
Lsupt=0.5×lceσpit,yi+ldiceσpit,yi
Lsup=Lsupc+Lsupt

将噪声标注的数据Ni输入模型,得到CNN对应的预测pNic以及Transformer对应的预测pNit,两个模型的预测之间计算相互教学损失,公式如下:

Lco-trainingc=ldiceσpNic,σpNit
Lco-trainingt=ldiceσpNit,σpNic
Lco-training=Lco-trainingc+Lco-trainingt

y^i为经过去噪之后的标注,将其与图片对应的Transformer的预测标签计算损失如式(12)所示:

Lcl=lceσ(pNit),σ(y^i)

最终得到损失函数如下:

Ltotal=Lsup+λLco-training+ω×Lcl

式中:ω为弱监督损失参数,值取5,将在2.4节对其具体分析。

λ的目的是控制监督损失在损失函数中的占比,在模型训练之初,Transformer和CNN两网络的学习尚不完全,无法进行有效分割,因此,需要监督损失占主要部分,随着学习的不断完善,再降低监督损失的比例,防止模型出现过拟合的情况。因此,λ选择高斯升温函数,其定义表示为:

λt=0.1×e-5×1-tttotal2

式中:tepoch/50;epoch为当前训练迭代的轮数;ttotal为需要迭代的总轮数,总训练轮次为20 000次,因此,ttotal设置为200。

2 实验结果及分析

2.1 数据及数据预处理

本文选取3个数据集来验证模型的有效性:皮肤病病灶分割数据集10、肺部X射线数据集11和颅内出血数据集12

2.1.1 皮肤病病灶分割数据集

此数据集收集了2 594张由各种皮肤镜从各种部位获得的病变图片及对应的标注,每个病变图像都正好包含一个病灶。本次实验对数据按7:3的比例随机划分为训练集和测试集,得到训练样本1 816张,测试样本778张。在训练集中,随机选取5%作为已标注的数据,其余作为未标注的数据,即已标注的训练样本91张,噪声标记的训练样本1 725张。

2.1.2 肺部X射线数据集

此数据集收集了800张肺部X射线的图像用于筛查患者是否患有肺结核,但其中只有704张图像具有标注,因此,本章的实验采用的是具有标注的704张图像。对数据按7:3的比例随机划分为训练集和测试集,得到训练样本493张,测试样本211张。在训练集中,随机选取5%作为已标注的数据,其余作为未标注的数据,即已标注的训练样本25张,噪声标记的训练样本468张。

2.1.3 颅内出血数据集

此数据集收集了82次CT扫描的数据,每次CT扫描包括约30个切片,每个切片均由两名放射科医生记录出血类型,其中带颅内出血标注的一共有318张。对数据按7:3的比例随机划分为训练集和测试集,得到训练样本223张,测试样本95张。由于数据集较小,实验选取5%已标注数据时,分割效果不佳,因此,为达到不同模型的有效对比效果,在训练集中,更改为随机选取10%作为已标注的数据,其余作为噪声标注的数据,即已标注的训练样本22张,噪声标记的训练样本201张。

2.1.4 数据预处理

对每一个数据集,在进行7:3划分训练集测试集之后,测试集不变,将其训练集进行划分,取少量随机数据保留原始高质量标签,剩余的标签做“加噪”预处理。

参照文献[8]对3D图像的“加噪”方法,此处对原始标注随机进行膨胀腐蚀以模拟低质量标注标签,如图2所示,可以看出,膨胀后的皮肤病病灶分割标签边缘变得光滑,损失了边缘的标注细节,腐蚀之后的肺部X射线标签,轮廓的区域有很大改变,颅内出血标签标注较小的情况下甚至会漏掉此处的标记。以此加噪来模拟数据集标签的少标注和标注不准确的问题,达到“加噪”的目的。

2.2 评价指标

本文采用Dice系数(Dice)和豪斯多夫距离(Hausdorff,HD)这两种常见的评价指标。Dice是一种集合相似度度量指标,通常用于计算两个样本的相似度,在实验中计算真实标签与预测标签的区域重叠率,从直观上看,这两者的重叠区域越大越好。Dice值越大,表明分割效果越好,其公式如下:

Dice=2×predtruepredtrue

式中:pred为预测值的集合;true为真实值的集合;分子为predtrue之间的交集,乘以2是因为分母存在重复计算predtrue之间的共同元素的原因。分母为predtrue的并集。

HD是描述两组点集之间的相似程度,更多关注边界距离误差,对预测结果,本文希望其与真实标签的边界距离误差尽可能小。HD值越小,表明分割效果越好,其公式如下:

HDG,S=
maxmaxxG minyS x-y2, maxxS minyG x-y2

式中:G为真实标签;S为预测结果;GS分别为真实标签和预测结果的边界。

为了消除少量离群值的影响,这里使用的是95%的豪斯多夫距离(95HD),它是基于边界点之间距离的第95个百分位数来进行计算的。

2.3 实验设置

本文方法均用PyTorch框架实现,使用了NVIDIA RTX 3090作为加速训练的GPU。使用U-Net和Swin-Transformer作为CNN和Transformer骨干网络,两个网络一同进行训练,同平均教师模型类似,学生模型是为了对教师模型进行优化,最终取教师模型的结果进行评估,本文协同训练模型中Transformer的引入是为了提升CNN的分割效果,最终只取CNN的预测结果进行性能评估。对两个网络,均使用SGD作为优化器,权重衰减设置为0.000 1,动量设置为0.9。学习率初始化为0.01,学习率在训练过程中根据训练epoch进行调节,公式为:

lr=lrinit×1-epochmax _epoch0.9

式中:lrinit为初始学习率;epoch为当前训练迭代的次数;max _epoch为总共训练的epoch,在本文方法中总共训练20 000个epoch

图像的大小固定为224×224,每个批次的批大小设定为16,每批次中原标签图片数量为4张,加噪标签图片数量为12张。

2.4 参数分析

参数k为每一个训练批次里原标签的数据和噪声标签数据的比例,是一个对模型训练效果影响较大的参数,因此,此处对其进行分析。

表1所示,对k选取了1:2、1:3和1:4三个值来进行对比,在颅内出血数据集上用Dice和HD95对训练模型进行评价。结果表明:原标签数据和噪声标签数据比例为1:3时模型训练最佳。k取1:2时,每个批次里原标签的数据就越多,过多地训练这些数据会使模型容易过拟合,也导致模型难以学习到噪声标注数据的信息。而k取1:4时,每个批次里噪声标注的数据就越多,又会使模型在训练初期难以学习到有效的标注数据的信息。因此,实验选择1:3作为k值来加载数据。

此外,损失函数中弱监督损失参数ω决定了置信学习在模型训练中的作用大小,因此,对其取值也加以分析。如表2所示,对k选取了0、5和10 3个值来进行对比,仍在颅内出血数据集上用Dice和HD95对训练模型进行评价。结果表明:ω取值为5时,分割效果最好,说明此时损失函数参数选取最佳。

2.5 实验结果

2.5.1 对比实验

本文将提出的基于置信学习的协同训练模型(CTCL)同3种方法进行对比:仅采用高质量标注的U-Net全监督方法(Full),文献[7]中引入低质量标注数据的基于强弱双分支网络的半监督语义分割(Decoupled)方法,以及本文对比的核心文献[8]中基于置信学习的平均教师模型(MTCL)方法。

在3个数据集上的对比结果如表3所示。由实验结果可以看出,同全监督方法相比,引入低质量标注数据集效果更好,而同两种已有的利用低质量标注数据的模型相比,本文提出的模型在Dice和HD95数值上又取得了更好的效果。其中,Dice值与目前已有的基于平均教师模型的置信学习算法相比,在3个数据集上分别提高了1.42%、2.36%和4.35%,更高的Dice值同时对应了更好的HD95结果。

分割可视化如图3所示,可以看出,在3个数据集不同大小和形状的目标分割中,全监督的Full效果较差,形状分割并不完整,基于强弱双分支网络的Decoupled方法形状分割较为完整,但是边缘判别不够精细,MTCL模型在图像边缘的分割效果较好,但分割完整度不够高,尤其是在肺部X射线数据集上的实验。相比之下,本文方法在边缘和细节识别中的表现更为精细和准确。

2.5.2 消融实验

为验证模型的有效性,采用本文方法在颅内出血数据集上进行了消融实验,对比结果如表4所示。

表4可以看出,最初在U-Net和Transformer模型对标记图像进行全监督训练,由于数据较少,导致模型训练结果不佳。于是引入噪声图像进行协同训练,效果相比U-Net和Transformer模型在Dice值上分别提升了18.03%和19.73%,在HD95上分别下降了0.708 2和13.252 8。从结果的对比可以看出,协同训练的加入会使模型额外学习到未标注数据的信息。

最后,引入置信学习,将U-Net网络的预测作为标准来对噪声标签加以修正,分割效果相比未使用置信学习的方法又在Dice值上提升了1.56%,HD95降低了1.719 8。从结果的对比可以看出,置信学习的加入进一步提升了模型的分割效果。由此可见,本模型提出的每种方法都能使模型性能提升,证明了方法的有效性。

3 结束语

此次工作中,相对于已有同置信学习结合的平均教师模型,本文提出了将置信学习与协同训练模型结合的新模型,应用于医学图像分割噪声数据集。其中,协同训练的主干网络由CNN和Transformer构成,同置信学习相结合来优化噪声数据,实现了对噪声数据的有效利用。本文使用3个数据集进行了大量实验,证明了本文模型的有效性,在拓宽置信学习应用范围的同时,提升了在医学图像噪声数据集上的分割准确度。

参考文献

[1]

Zhang Y, Lu Y, Chen W, et al. MSMANet: a multi-scale mesh aggregation network for brain tumor segmentation[J]. Applied Soft Computing, 2021, 110: 107733.

[2]

Zhou Y, Yu H, Shi H. Study group learning: improving retinal vessel segmentation trained with noisy labels[C]∥Medical Image Computing and Computer Assisted Intervention-MICCAI 2021: 24th International Conference, Strasbourg, France, 2021: 57-67.

[3]

戴振晖, 简婉薇, 朱琳, 基于3D UNet结合Transformer的肝脏及肝肿瘤自动分割[J]. 中国医疗设备, 2023, 38(1): 42-47.

[4]

Dai Zhen-hui, Jian Wan-wei, Zhu Lin, et al. Automatic segmentation of the liver and liver tumor based on 3D unet combined with transformer[J]. China Medical Devices, 2023,38(1): 42-47.

[5]

Ren M, Zeng W, Yang B, et al. Learning to reweight examples for robust deep learning[C]∥International Conference on Machine Learning, Stockholm, Sweden, 2018: 4334-4343.

[6]

Goldberger J, Benreuven E. Training deep neural-networks using a noise adaptation layer[C]∥International Conference on Learning Representations, San Juan, Puerto Rico, 2016: 1-9.

[7]

Northcutt C, Jiang L, Chuang I. Confident learning: estimating uncertainty in dataset labels[J]. Journal of Artificial Intelligence Research, 2021, 70: 1373-1411.

[8]

Luo W, Yang M. Semi-supervised semantic segmentation via strong-weak dual-branch network[C]∥Computer Vision-ECCV 2020: 16th European Conference, Glasgow, UK, 2020: 784-800.

[9]

Xu Z, Lu D, Wang Y, et al. Noisy labels are treasure: mean-teacher-assisted confident learning for hepatic vessel segmentation[C]∥Medical Image Computing and Computer Assisted Intervention-MICCAI 2021: 24th International Conference, Strasbourg, France, 2021: 3-13.

[10]

Blum A, Mitchell T. Combining labeled and unlabeled data with co-training[C]∥Proceedings of the Eleventh Annual Conference on Computational Learning Theory, Madison, USA, 1998: 92-100.

[11]

Codella N, Rotemberg V, Tschandl P, et al. Skin lesion analysis toward melanoma detection 2018: a challenge hosted by the international skin imaging collaboration (isic)[J/OL]. [2023-07-23]. arXiv Preprint arXiv:

[12]

Jaeger S, Karargyris A, Candemir S, et al. Automatic tuberculosis screening using chest radiographs[J]. IEEE Transactions on Medical Imaging, 2013, 33(2): 233-245.

[13]

Hssayeni M, Croock M, Salman A, et al. Intracranial Hemorrhage Segmentation Using a Deep Convolutional Model[J]. Data, 2020, 5(1): 1- 14.

基金资助

吉林省产业关键核心技术攻关项目(20230201085GX)

AI Summary AI Mindmap
PDF (773KB)

168

访问

0

被引

详细

导航
相关文章

AI思维导图

/