多特征融合的产时超声胎方位识别模型

郑子瑜 ,  杨夏颖 ,  吴圣杰 ,  张诗婕 ,  吕国荣 ,  柳培忠 ,  王珺 ,  何韶铮

南方医科大学学报 ›› 2025, Vol. 45 ›› Issue (07) : 1563 -1570.

PDF (1292KB)
南方医科大学学报 ›› 2025, Vol. 45 ›› Issue (07) : 1563 -1570. DOI: 10.12122/j.issn.1673-4254.2025.07.24

多特征融合的产时超声胎方位识别模型

作者信息 +

A multi-feature fusion-based model for fetal orientation classification from intrapartum ultrasound videos

Author information +
文章历史 +
PDF (1322K)

摘要

目的 探讨多特征融合的产时超声胎方位智能分析模型在提高分娩过程中胎方位分类准确性方面的应用效果。 方法 本研究提出模型由输入、骨干网络和分类头3部分组成。输入部分进行数据增强,以提高样本质量和模型的泛化能力;主干部分进行特征提取,在Yolov8的基础上结合了CBAM、ECA、PSA注意力机制和AIFI特征交互模块,以提升特征提取效率和模型性能;分类头由卷积层和softmax函数组成,输出最终各个类别的概率值。用医生对关键器官(眼睛,脸部,头部,丘脑,脊柱)进行画框标注后的图像用于训练,以提高对枕前、枕后和枕横方位的分类准确性。 结果 实验结果表明,本文提出的模型在胎方位分类任务中表现出色,准确率(ACC)达到了0.984,PR曲线下面积即平均精确度(PR-AUC)为0.993,特征曲线下面积(ROC-AUC)为0.984,kappa一致性检验分数为0.974,该深度学习模型表现出了非常好的性能,模型预测结果和实际类别一致。 结论 本研究提出的多特征融合模型能够高效、准确地分类产时超声图像中的胎方位,为临床提供可靠的辅助工具。

Abstract

Objective To construct an intelligent analysis model for classifying fetal orientation during intrapartum ultrasound videos based on multi-feature fusion. Methods The proposed model consists of the Input, Backbone Network and Classification Head modules. The Input module carries out data augmentation to improve the sample quality and generalization ability of the model. The Backbone Network was responsible for feature extraction based on Yolov8 combined with CBAM, ECA, PSA attention mechanism and AIFI feature interaction module. The Classification Head consists of a convolutional layer and a softmax function to output the final probability value of each class. The images of the key structures (the eyes, face, head, thalamus, and spine) were annotated with frames by physicians for model training to improve the classification accuracy of the anterior occipital, posterior occipital, and transverse occipital orientations. Results The experimental results showed that the proposed model had excellent performance in the tire orientation classification task with the classification accuracy reaching 0.984, an area under the PR curve (average accuracy) of 0.993, and area under the ROC curve of 0.984, and a kappa consistency test score of 0.974. The prediction results by the deep learning model were highly consistent with the actual classification results. Conclusion The multi-feature fusion model proposed in this study can efficiently and accurately classify fetal orientation in intrapartum ultrasound videos.

Graphical abstract

关键词

产时超声 / 胎方位 / 深度学习 / 注意力机制

Key words

intrapartum ultrasound / fetal orientation / deep learning / attention mechanism

引用本文

引用格式 ▾
郑子瑜,杨夏颖,吴圣杰,张诗婕,吕国荣,柳培忠,王珺,何韶铮. 多特征融合的产时超声胎方位识别模型[J]. 南方医科大学学报, 2025, 45(07): 1563-1570 DOI:10.12122/j.issn.1673-4254.2025.07.24

登录浏览全文

4963

注册一个新账户 忘记密码

产时超声(IPUS)起源于20世纪50年代,是一种在分娩过程中使用的超声技术,随着技术的发展进步,产时超声广泛地应用于产时临床1-6,妇产科超声学会(ISUOG)发布的产时超声检查指南7中强调产时超声在促进分娩临床管理中的重要性,并提供正确使用超声指导分娩的建议。
产时胎方位是指分娩过程中胎儿相对于母体骨盆的位置和姿势,它对于胎儿的健康和分娩方式的选择影响显著89。在分娩过程中,枕前位是最理想的胎位,有利于自然分娩。然而,当胎儿处于枕后位或枕横位等异常胎方位时,可能会增加难产,围产期并发症的风险。在产程管理中,枕横位和枕后位的产妇活跃期、第2产程以及总产程时间均长于枕前位组1011。研究表明12-15,产程早期枕后位发生率约为25%,枕横位发生率为19%~49%;第2产程枕后位发生率约为15%,枕横位发生率为10%~20%;持续性枕后位发生率为5%~12%,持续性枕横位发生率为3%~8%。及时的检测出异常胎方位,采取适当的体位和干预措施16,可以帮助纠正异常胎方位,从而提高自然分娩的成功率。
深度学习模型在医学超声图像分析中的应用越来越多,在胎方位分类任务上已经出现一些深度学习模型17-22,但当前研究仍存在一些问题,部分研究只进行了正常及异常的粗略划分,或是需要通过多个模型进行多次分析才能得到最终结果。
本研究先由医生对视频中各帧中出现的关键器官(眼睛,脸部,头部,丘脑,脊柱)进行画框标注,利用框选标注后的图片,使用深度学习方法对产时超声的视频进行胎方位(枕前,枕后,枕横)的分类。

1 材料和方法

1.1 数据集

本研究为回顾性研究,纳入2023年1月~2024年3月在福建医科大学附属第二医院相关资料,选取平均年龄27岁,临产(37+周)的孕妇做产时超声检查,收集视频和图片用于本研究。本研究经医学伦理委员会批准(伦理批号:2023656),所有患者均签署知情同意书。

根据产时超声指南,枕后位的标志是2个眼眶;枕横位的标志是脑中线回声、丘脑和脉络丛;枕前位的标志是枕部和脊柱。本研究按照以下方法构建最终的数据集:首先从所有视频中留出部分视频作为视频测试集,用于后续检测训练的结果,然后将剩余的视频抽帧为图片;由专业医生对抽帧后的图片进行确认和标注,标记出其中的关键器官;根据产时超声指南,将图片分为枕前(OA)、枕后(OP)和枕横(OT)3个方位类别,其中枕前位选择包含头部和脊柱的图片,枕后位选择包含眼睛和脸部的图片,枕横位选择包含头部和丘脑的图片;最后将分类后的图片按照9∶1的比例随机划分为训练集和验证集,并将测试视频抽帧为图片,构成图片测试集。按照上述方法构建的数据集共包含3984张图片作为训练集,496张图片作为验证集,以及8个视频(抽帧后为1319张图片)用于视频测试。本研究将从孕妇处获取的产时超声视频和图片,按照上述方法构建训练集和验证集(表1)。

1.2 数据预处理

超声图片先进行批归一化处理将图片调整为512x512像素,随后进行随机翻转(水平和垂直),几何变化(旋转、平移),颜色空间变换(亮度、对比度、饱和度随机调整),以及马赛克增强等数据增强策略。数据增强通过改变输入数据生成更多训练样本,减少模型对特定特征的过度依赖,避免过拟合。

1.3 模型

本研究以 YOLOv8为基线模型,经过多次实验,设计用于对产时超声的视频中的图片进行胎方位(枕前,枕后,枕横)分类的深度学习模型。模型结构主要包括输入、骨干网络和分类头3部分(图1)。

输入部分:输入部分主要负责图像的数据增强,以提高样本质量和模型的泛化能力。在该部分,输入图片先进行批归一化处理将图片调整为512×512像素,随后进行随机翻转(水平和垂直),几何变化(旋转、平移),颜色空间变换(亮度、对比度、饱和度随机调整),以及马赛克增强等数据增强策略。数据增强通过改变输入数据生成更多训练样本,减少模型对特定特征的过度依赖,避免过拟合。

骨干网络:骨干网络负责特征提取,采用卷积和反卷积层,并结合残差连接和瓶颈结构,加入注意力机制以强化重要特征的表达。Backbone由Conv、C2f、CBAM、EMA、PSA、AIFI六种模块组成。针对YOLOv8基线模型,本研究加入CBAM、EMA、PSA注意力机制模块和AIFI模块,以提升特征提取效率和模型性能。其中,Conv模块由卷积层、批归一化层和SiLU激活函数组成,负责特征提取。C2f模块用于聚合多尺度信息,通过拼接不同Bottleneck模块的输出和原始特征图。

注意力机制是一种模仿人类视觉和认知系统的技术,允许神经网络在处理输入数据时集中注意力于相关的部分。其核心目标是从众多信息中选出对当前任务目标更加关键的信息,从而提高模型的性能和泛化能力。

卷积块注意力模块(CBAM)23是一种用于卷积神经网络(CNN)的注意力机制模块,它通过结合通道注意力和空间注意力来增强特征表示能力,从而提升模型的性能。它由两个部分组成:通道注意力模块和空间注意力模块。CAM目的是确定特征图中哪些通道是重要的,它通过全局平均池化和全局最大池化来压缩空间维度,生成两个通道描述符,这两个描述符被送入一个共享的多层感知器(MLP),以学习每个通道的注意力权重,最终,通过sigmoid函数将权重归一化到[0,1]区间,并与原始特征图相乘,实现通道维度的特征重标定;SAM关注特征图中每个通道内的空间依赖关系,旨在捕捉特征图中每个空间位置的重要性。它首先对特征图在通道维度上进行平均池化和最大池化,生成2个二维特征图。然后,将这两个特征图拼接起来,通过一个卷积层生成空间注意力图。最后,将该注意力图与特征图相乘,实现空间维度的特征重标定。

高效通道注意力(ECA)24是一种高效的通道注意力机制,它通过一维卷积来捕捉通道间的依赖关系,从而提高深度卷积神经网络(CNN)的性能。ECA模块以其高效性和自适应特性,为网络提供了更强大的特征表示能力。

极化自注意力(PSA)25注意力机制是一种为细粒度的像素级任务设计注意力模块,它通过在通道和空间维度上保持高分辨率,减少了降维度造成的信息损失,并采用了细粒度回归输出分布的非线性函数,以增强特征表示能力。

基于注意力的内部尺度特征交互模块(AIFI)26是一种基于注意力机制的特征交互模块,它被设计用于增强目标检测算法中的特征提取能力。AIFI模块的核心思想是在相同尺度的特征之间进行有效的交互,以捕获更细粒度的信息,并通过注意力机制提高模型的灵活性和精确度。AIFI能够根据输入数据和任务需求动态调整特征融合策略,使网络能够更有效地结合来自不同来源的信息,改善对复杂数据的理解和处理能力,通过优化特征融合方式,AIFI能够显著提升模型在各种任务中的表现,包括分类、检测等。

分类头:分类头负责最终的分类任务,包括一系列卷积层,输出固定长度的向量,每个元素代表一个类别的得分。得分向量通过softmax函数转换成概率分布,得到最终分类结果。

1.4 评价指标

本研究用训练好的模型对图片测试集和视频测试集进行预测。在图片测试集中,统计准确率:预测正确的结果占总样本的百分比;精确率-召回率曲线下的面积(PR-AUC):对不同召回率点上的精确率进行平均,以反映模型的平均精确度;ROC曲线下面积(ROC-AUC):表示一个模型对正负例的区分能力,取值在0和1之间,越大代表模型性能越好;Kappa系数:基于混淆矩阵的一致性检验指标,衡量分类效果。通过这些评估指标,全面地评价模型的性能,确保模型在实际应用中的有效性和可靠性(表2)。

1.5 训练细节

在构建数据集时,本研究对初始数据按照一定比例随机划分,以确保训练集和验证集中不出现重复数据,得到训练集3984张,验证集为496张。数据在送入模型训练前,本文采用了随机裁剪、颜色抖动、马赛克增强等数据增强策略,使本文训练的模型具有更好的鲁棒性。实验在一台运行 Windows 11 的计算机上进行,硬件配置如下:11th Gen Intel(R) Core (TM) i7-11700作为CPU、16GB 内存和一个具有12GB GPU内存的NVIDIA GeForce RTX3060。所使用的编程环境是Python3.9,实验中使用的深度学习框架是 Pytorch 2.3。此外,实验中的学习率、优化器和其他参数的设置均基于基线模型 YOLOv8。

2 结果

本研究对产时超声图像中胎方位分类的模型按照如下参数:优化器为SGD,初始学习率为0.01,batch_size为16,image_size为512,对训练集进行数据增强,使用改进模型训练200轮。该模型的分类在验证集上准确率ACC达到了0.984,PR-AUC为0.993,ROC-AUC为0.984,kappa一致性检验分数为0.974(图2)。

将本文模型与其他的深度学习分类模型(EfficientNet27,DenseNet28,ResNet29,Yolov8s_cls,ConvNeXt30,MPViT31,Swim Transformer32,Yolov8+CSAM33)进行性能的对比。为确保公平的比较,所有的模型的输出都更改为3个类别的预测概率,且数据均未进行预处理,以及采用相同的训练手段和相同的优化算法。用于训练的超参数如下:优化器为SGD,初始学习率为0.01,batch_size为16,训练200轮。

用训练得到的模型对测试集进行预测,先筛选出能够看出头、脊柱、眼睛、脸和丘脑中任一器官的视频帧,将这些视频帧分别送入不同的模型进行预测,去除其中概率分数低于0.9的结果,然后统计预测的结果,并计算各项指标。将隶属于同个视频的所有图片预测结果求和后取平均,作为该视频的预测结果,并统计视频分类的结果是否准确(图3)。

模型对视频的分类结果能够准确的分辨出不同视频的胎方位(表3)。模型预测性能指标统计得到的结果总体上优于其他分类模型(表4)。具体来说,本文设计的模型在ACC和kappa指标上取得了最好的成绩,ACC和kappa分别达到了0.92499和0.88553,超过其他模型中的最佳模型ResNet50 0.002和0.003。同时本文模型是以Yolov8为基底进行改进的,可以看到本文改进后,模型的性能指标有明显的提升,PR-AUC提升了0.039、ROC-AUC提升了0.017、ACC提升了0.051以及kappa一致性检验分数提升了0.082。

本研究绘制了这些模型的PR曲线(图4)和ROC曲线(图4)。在PR曲线中可以看到本模型在平衡点(图中虚线和各个模型曲线的交点)出的性能要优于其他模型,ROC曲线上本文的模型也体现出较好的效果。

本文对模型进行了消融实验,分别将每个模块加入到基线模型中(表5),0表示没有加入这个模块,1表示加入了该模块,可以看到不同的模块均使模型的精度有所提升,虽然单独使用AIFI模块无法提高精度,但是通过AIFI模块与其他模块的结合,能够使最终的模型精度达到一个最佳的结果。

3 讨论

本研究提出了一种基于多特征融合的深度学习模型,用于对产时超声视频中的胎方位进行分类。该模型在枕前、枕后和枕横方位的分类任务中表现出色,准确率(ACC)达到了0.984,PR-AUC为0.993,ROC-AUC为0.984,kappa一致性检验分数为0.974,显示出与实际类别几乎完美的一致性。这些结果表明,本研究的模型在胎方位分类任务中具有极高的准确性和可靠性,能够为临床决策提供有力支持。

在当前的医学超声图像分析领域,深度学习模型的应用越来越广泛。近年来,许多研究集中在胎方位分类任务上,但现有研究仍存在一些局限性。例如,部分研究仅进行了正常及异常的粗略划分,或者需要通过多个模型进行多次分析才能得到最终结果。本研究通过引入注意力机制(如CBAM、ECA、PSA)和特征交互模块(AIFI),提升了模型的性能,克服了这些局限性。与现有的深度学习模型(如EfficientNet、DenseNet、ResNet、ConvNeXt,Swim Transformer等)相比,本研究提出的模型在ACC和kappa指标上均取得了更好的成绩,分别达到了0.92499和0.88553,优于其他模型中的最佳模型ResNet50(ACC为0.92307,kappa为0.88284)。此外,本研究的模型在PR曲线和ROC曲线上也表现出较好的效果,PR-AUC和ROC-AUC分别达到了0.91545和0.95944。这些结果表明,本研究的模型在平衡点处的性能优于其他模型,能够更有效地区分正负样本。通过消融实验,本文进一步验证了各模块对模型性能的贡献。结果显示,CBAM、PSA、ECA和AIFI模块的引入均显著提升了模型的精度,尤其是AIFI模块与其他模块的结合,使模型性能达到最佳。

此外,尽管本研究的模型在特定数据集上展现了良好的性能,但其在不同医疗机构和不同超声设备产生的图像数据上的泛化能力尚未得到充分验证。这与文献中提到的深度学习模型在不同数据集上的表现可能存在差异的观点一致17。因此,未来的研究需要进一步探索模型在多样化临床数据中的适应性,以验证其在实际临床环境中的应用价值。

综上所述,本研究提出的多特征融合深度学习模型在产时超声胎方位分类任务中表现优异,具备较高的准确性和可靠性。通过引入注意力机制和特征交互模块,模型能够更有效地提取和利用图像特征,提高对胎方位的识别能力。然而,模型在视频分类任务中的表现仍有待提升,且其在多样化临床数据中的泛化能力仍需进一步验证。未来的研究将致力于解决这些问题,以进一步提高产时超声胎方位分类的准确性,为临床决策提供更有力的支持。

参考文献

[1]

Leung KY. Applications of advanced ultrasound technology in obstetrics[J]. Diagnostics (Basel), 2021, 11(7): 1217. doi:10.3390/diagnostics11071217

[2]

Malvasi A. Intrapartum Ultrasonography for Labor Management[M]. Cham: Springer International Publishing, 2021. doi:10.1007/978-3-030-57595-3

[3]

Yang TZ, Luo H. Practical Ultrasonography in Obstetrics and Gynecology[M]. Cham: Springer Nature Singapore, 2022. doi:10.1007/978-981-16-4477-1

[4]

Wiafe YA, Whitehead B, Venables H, et al. Comparing intrapartum ultrasound and clinical examination in the assessment of fetal head position in African women[J]. J Ultrason, 2019, 19(79): 249-54. doi:10.15557/JoU.2019.0037

[5]

张勤建, 颜建英. 产时超声辅助产程管理[J]. 中国实用妇科与产科杂志, 2024, 40(2): 142-7.

[6]

孙璐鑫, 韩英杰. 产时超声在产程监测中的应用[J]. 国际生殖健康/计划生育杂志, 2025, 44(1): 84-8.

[7]

Ghi T, Eggebø T, Lees C, et al. ISUOG Practice Guidelines: intrapartum ultrasound[J]. Ultrasound Obstet Gynecol, 2018, 52(1): 128-39. doi:10.1002/uog.19072

[8]

Lieberman E, Davidson K, Lee-Parritz A, et al. Changes in fetal position during labor and their association with epidural analgesia[J]. Obstet Gynecol, 2005, 105(5 Pt 1): 974-82. doi:10.1097/01.AOG.0000158861.43593.49

[9]

Ghi T, Dall’Asta A. Sonographic evaluation of the fetal head position and attitude during labor[J]. Am J Obstet Gynecol, 2024, 230(3S): S890-900. doi:10.1016/j.ajog.2022.06.003

[10]

Guittier MJ, Othenin-Girard V, Irion O, et al. Maternal positioning to correct occipito-posterior fetal position in labour: a randomised controlled trial[J]. BMC Pregnancy Childbirth, 2014, 14: 83. doi:10.1186/1471-2393-14-83

[11]

杨建成, 马 琰, 徐 颖, . 胎方位异常阴道分娩第二产程会阴超声测量产程进展参数的临床研究[J]. 现代妇产科进展, 2024, 33(9): 656-61.

[12]

Bertholdt C, Piffer A, Pol H, et al. Management of persistent occiput posterior position: The added value of manual rotation[J]. Int J Gynaecol Obstet, 2022, 157(3): 613-7. doi:10.1002/ijgo.13874

[13]

Vitner D, Paltieli Y, Haberman S, et al. Prospective multicenter study of ultrasound-based measurements of fetal head station and position throughout labor[J]. Ultrasound Obstet Gynecol, 2015, 46(5): 611-5. doi:10.1002/uog.14821

[14]

Senécal J, Xiong X, Fraser WD, et al. Effect of fetal position on second-stage duration and labor outcome[J]. Obstet Gynecol, 2005, 105(4): 763-72. doi:10.1097/01.aog.0000154889.47063.84

[15]

de Vries B, Phipps H, Kuah S, et al. Transverse occiput position: using manual rotation to aid normal birth and improve delivery OUTcomes (TURN-OUT): a study protocol for a randomised controlled trial[J]. Trials, 2015, 16: 362. doi:10.1186/s13063-015-0854-3

[16]

Simkin P. The fetal occiput posterior position: state of the science and a new perspective[J]. Birth, 2010, 37(1): 61-71. doi:10.1111/j.1523-536X.2009.00380.x

[17]

Fiorentino MC, Villani FP, Di Cosmo M, et al. A review on deep-learning algorithms for fetal ultrasound-image analysis[J]. Med Image Anal, 2023, 83: 102629. doi:10.1016/j.media.2022.102629

[18]

Burgos-Artizzu XP, Coronado-Gutiérrez D, Valenzuela-Alcaraz B, et al. Evaluation of deep convolutional neural networks for automatic classification of common maternal fetal ultrasound planes[J]. Sci Rep, 2020, 10(1): 10200. doi:10.1038/s41598-020-67076-5

[19]

Ghi T, Conversano F, Zegarra RR, et al. Novel artificial intelligence approach for automatic differentiation of fetal occiput anterior and non-occiput anterior positions during labor[J]. Ultrasound Obstet Gynecol, 2022, 59(1): 93-9. doi:10.1002/uog.23739

[20]

Dall’Asta A, Conversano F, Minopoli M, et al. OC02.02: Artificial intelligence for automatic classification of anterior/posterior/transverse occiput positions using transperineal sonography[J]. Ultrasound Obstet Gynecol, 2022, 60(S1): 4-5. doi:10.1002/uog.24995

[21]

Eisenstat J, Wagner MW, Vidarsson L, et al. Fet-net algorithm for automatic detection of fetal orientation in fetal MRI[J]. Bioengineering (Basel), 2023, 10(2): 140. doi:10.3390/bioengineering10020140

[22]

Zegarra RR, Conversano F, Dall’Asta A, et al. A deep learning approach to identify the fetal head position using transperineal ultrasound during labor[J]. Eur J Obstet Gynecol Reprod Biol, 2024, 301: 147-53. doi:10.1016/j.ejogrb.2024.08.012

[23]

Woo S, Park J, Lee JY, et al. CBAM: convolutional block attention module[M]//Computer Vision – ECCV 2018. Cham: Springer International Publishing, 2018: 3-19. doi:10.1007/978-3-030-01234-2_1

[24]

Wang QL, Wu BG, Zhu PF, et al. ECA-net: efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 11531-9. doi:10.1109/cvpr42600.2020.01155

[25]

Wang A, Chen H, Liu LH, et al. YOLOv10: real-time end-to-end object detection[EB/OL]. 2024: 2405.14458.

[26]

Zhao YA, Lv WY, Xu SL, et al. DETRs beat YOLOs on real-time object detection[EB/OL]. 2023: 2304.08069. doi:10.1109/cvpr52733.2024.01605

[27]

Tan MX, Le QV. EfficientNet: rethinking model scaling for convolutional neural networks[EB/OL]. 2019: 1905.11946. doi:10.1007/978-1-4842-6168-2_10

[28]

Huang G, Liu Z, Van Der Maaten L, et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 2261-9. doi:10.1109/cvpr.2017.243

[29]

He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 770-8. doi:10.1109/cvpr.2016.90

[30]

Liu Z, Mao HZ, Wu CY, et al. A ConvNet for the 2020s[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 18-24, 2022, New Orleans, LA, USA. IEEE, 2022: 11966-76. doi:10.1109/cvpr52688.2022.01167

[31]

Lee Y, Kim J, Willette J, et al. MPViT: multi-path vision transformer for dense prediction[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 18-24, 2022, New Orleans, LA, USA. IEEE, 2022: 7277-86. doi:10.1109/cvpr52688.2022.00714

[32]

Liu Z, Lin YT, Cao Y, et al. Swin transformer: hierarchical vision transformer using shifted windows[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV). October 10-17, 2021, Montreal, QC, Canada. IEEE, 2021: 9992-10002. doi:10.1109/iccv48922.2021.00986

[33]

Yu Hung AL, Zheng HX, Zhao K, et al. CSAM: a 2.5D cross-slice attention module for anisotropic volumetric medical image segmentation[J]. IEEE Winter Conf Appl Comput Vis, 2024, 2024: 5911-20. doi:10.1109/wacv57701.2024.00582

基金资助

福建省科技创新联合资金项目资助(2024Y9392)

福建省科技创新联合资金项目资助(2024Y9386)

福建省科技创新联合资金项目资助(2024Y9435)

RIGHTS & PERMISSIONS

版权所有©《南方医科大学学报》编辑部2021

AI Summary AI Mindmap
PDF (1292KB)

118

访问

0

被引

详细

导航
相关文章

AI思维导图

/