基于细粒度分析的不均衡图像分类算法

刘萍萍 ,  商文理 ,  解小宇 ,  杨晓康

吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (06) : 2122 -2130.

PDF (1235KB)
吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (06) : 2122 -2130. DOI: 10.13229/j.cnki.jdxbgxb.20230991
计算机科学与技术

基于细粒度分析的不均衡图像分类算法

作者信息 +

Unbalanced image classification algorithm based on fine⁃grained analysis

Author information +
文章历史 +
PDF (1263K)

摘要

针对细粒度属性图像具有复杂性和多样性,传统的图像分类方法在关注图像细粒度属性方面存在不足,并在处理不均衡数据集时表现不佳的问题,提出了一种基于深度度量学习的细粒度图像阈值分类算法。通过引入度量学习方法增强对图像细粒度属性的关注。同时,通过应用成对损失和代理损失,提高了模型的分类准确性并加快了模型的收敛速度。为了应对数据不均衡问题,设计了一个基于阈值分析的分类器。该分类器利用阈值分析技术实现了对细粒度图像的多级分类,从而改善了在不均衡数据集中少数类别分类准确性较低的问题。实验结果表明,本文所提出的基于深度度量学习的细粒度图像阈值分类算法在分类准确性方面显著优于其他方法。

Abstract

Aiming at the complexity and diversity of fine-grained images, where traditional image classification methods exhibit limitations in focusing on fine-grained attributes and perform poorly when handling imbalanced datasets, a threshold-based fine-grained image classification algorithm utilizing deep metric learning was proposed. The focus on fine-grained attributes of images was enhanced by introducing a metric learning approach. Additionally, the classification accuracy was enhanced and the model convergence was expedited by incorporating pairwise loss and agent loss mechanisms. To address the issue of data imbalance, a classifier was devised grounded in threshold analysis techniques. This innovative classifier harnesses threshold analysis to facilitate multi-level classification of fine-grained images, thereby ameliorating the issue of low classification accuracy for certain categories within an imbalanced dataset. The results of these experiments unequivocally demonstrate that the proposed threshold classification algorithm for fine-grained images, based on deep metric learning, outperforms alternative methods in terms of classification accuracy.

Graphical abstract

关键词

计算机应用 / 深度度量学习 / 细粒度分类 / 不均衡数据 / 阈值分类器

Key words

computer application / deep metric learning / fine-grained classification / unbalanced data / threshold classifier

引用本文

引用格式 ▾
刘萍萍,商文理,解小宇,杨晓康. 基于细粒度分析的不均衡图像分类算法[J]. 吉林大学学报(工学版), 2025, 55(06): 2122-2130 DOI:10.13229/j.cnki.jdxbgxb.20230991

登录浏览全文

4963

注册一个新账户 忘记密码

0 引 言

图像分类是计算机视觉领域中一个经典的研究领域,通常分为语义级图像分类和实例级图像分类。语义级图像分类的目的是确定不同的对象类别,如动植物分类1等;实例级图像分类的目的是确定不同的个体,如人脸识别2等。细粒度图像分类则介于语义级图像分类和实例级图像分类之间,与粗粒度图像分类的任务不同,细粒度图像分类任务通常类与类之间的区别比较细微,一般要靠细微的局部差别才能区别出不同类。这类任务一般称为子类别分类,因为它们的分类界限常位于同一类别的不同子类之间,细粒度图像分类比对象级分类任务所面临的类内差异更大。然而,在处理细粒度分类时,通常需要面对不均衡类别分布的问题,不均衡类别分布会对模型性能产生负面影响,这通常导致模型倾向于学习数量较多的类别,而忽视数量较少的类别,从而降低了模型的准确性。在某些应用场景中,由于数据不可控因素,不均衡类别分布是不可避免的挑战。因此,研究如何在不均衡类别分布条件下实现精确的细粒度图像分类具有重要意义。

学习判别局部区域的特征可以有效地提高细粒度图像分类的性能。因此,此类方法在最近的工作中得到了广泛的研究。通过对细粒度目标部位对应的关键区域进行检测、分割或定位,可以学习到更多具有判别性的局部特征,进一步提高网络的学习能力。Ji等3提出ACNet将注意力机制与卷积二叉树相结合,学习层次细粒度特征,进而提高模型分类性能。Wei等4提出Mask-CNN,通过分割模型获取掩码定位物体,该方法在仅依靠训练时提供的部分注释,不需要边界框,同时测试时不需额外监督信息,在细粒度图像分类任务中取得较好的分类精度。尽管基于判别局部区域定位的方法不断改进,但是在细粒度图像的判别局部特征关系建模方面,以往的工作仍然存在不足。

学习统一的、有区别的特征表示,能有效地模拟细粒度数据集里不同类别之间的细微差异,此类方法在细粒度图像分类任务中有良好的性能表现。Zheng等5通过对特征通道组应用双线性池化,有效降低了计算成本,同时提高了模型的性能表现。Chang等6构建了通道交互损失,通过简单的通道交互机制,从通道关系中获得特征之间的区别和互补关系进而提高模型性能表现。Bera等7设计了一种基于图神经网络的细粒度分类模型(SR-GNN),通过关系感知的视觉特征变换实现相关局部特征重要性的重加权,并将得到的特征进行自动聚合,得到具有表现力的特征表示。上述方法虽然在图像细粒度分类任务上的性能有所提升,但是忽视了由于部分细粒度图像数据较少而产生的数据不均衡问题。

本研究的贡献在于将深度度量学习方法与阈值分析相结合应用于不均衡的细粒度图像分类领域。实验结果显示,本文所提出的算法在典型的不均衡细粒度图像分类任务中相较于传统方法具有更高的准确性和可靠性。

1 本文方法

近年来,基于深度学习的图像分类研究引入度量学习的概念8。度量学习通过将图像特征映射到一个新的度量空间,拉近同类样本和推远不同类样本的方式,更加关注图像的细粒度属性。以细粒度特征提取为基础的图像分类算法由于关注到图像特征间的细微差异,实际应用时可以有效提高分类结果的准确性。

此外,当数据呈明显的长尾分布,当前常规的分类方法通常很难在少数类中获得优异的分类效果。在本文中,为了进一步提升分类准确性,阈值分类方法被引入。本研究采用视觉转换器(Vision transformer,VIT)作为特征提取网络9,并结合度量学习方法,将神经网络提取的特征映射到一个新的度量空间,通过设计阈值分类器,在少数类别上提高了图像分类结果的准确性。

本研究的目标是学习一个嵌入函数Z=f(θ)f(θ)是一个具有参数θ的深度神经网络,将图像x在度量空间中映射成特征Z。例如,xy为输入的样本图像,它们在度量空间中的距离为dθ(x,y)=||fθ(x)-fθ(y)||。一个好的嵌入函数会在度量空间中拉近同类的样本,推远不同类的样本,以便提高分类的准确性。为了实现最佳的分类效果,提出了阈值分类方法应用于不均衡的细粒度图像分类任务。

1.1 阈值分类框架概述

本文所提出的阈值分类框架由两部分组成:特征提取和阈值分类方法。首先,将预处理后的图像输入主干网络进行初始特征提取。其次,通过应用度量损失函数对特征提取网络进行训练。最后,将训练得到的特征提取网络输出的特征向量传递给阈值分类器,以实现对细粒度图像的分类。图1展示了阈值分类方法框架的总体训练结构。

该框架的特征提取阶段旨在从输入图像中提取有用的特征信息。通过主干网络的处理,图像中的局部和全局特征被有效地捕获。为了优化特征提取的性能,更好地关注图像的细粒度属性,度量损失函数被引入,以对特征进行有针对性的训练。鉴于不均衡数据集中少数类样本数量较少,在面对这种严重的数据不均衡问题时,为了减轻数据不均衡对分类结果的影响,借鉴了集成学习10方法,提出了一种基于优势阈值的多级分类方法。在特征提取完成后,所得到的特征向量被传递给阈值分类器,以实现不均衡的细粒度图像分类任务。

1.2 度量学习损失函数

度量学习(Metric learning)可以看作通过度量损失训练特征提取器的过程。在细粒度图像分类任务中,相似度度量是一个至关重要的问题。传统的图像分类方法通过训练分类器获得分类结果。然而,这种方法忽略了样本之间微小的差异,无法准确度量图像之间的相似性。关注样本之间微小的差异在需要区分相似度较高的不同类别图像时是十分必要的。此外,图像细粒度分类任务通常面临小样本问题。在不均衡图像数据集中,非优势类别中的样本数量通常有限,这导致传统的分类方法可能在面对小样本情况时表现不佳。度量学习方法可以通过学习适当的度量空间,将相似的图像样本聚集在一起,从而有效地利用有限的样本信息,提高分类性能。

目前已有的度量学习损失函数可以分为两类:基于代理的损失和成对损失。基于代理的损失通过引入类别代理,旨在解决训练时模型收敛慢的问题。代理是训练数据子集的代表,并作为网络参数的一部分进行训练。在基于代理的损失中,样本与样本的关系可以用样本与代理的关系代替,因此可以减少大量的训练时间,更快地达到收敛目标。某个类别中现有的损失将每个数据点视为一个锚,将其与代理而不是其他图像关联,鼓励锚接近同一类的代理,远离不同类别的代理。成对损失则利用数据点之间的细粒度语义关系,同时通过比较样本间的相似性关系建立类别之间的细粒度描述。

在本文的方法中,利用基于代理的损失与成对损失相结合的方法,原因是基于代理的损失可以达到较好的训练开销,可由于在训练的初始阶段无法获得优秀的类别代理,反而无法达到使用代理的价值,因此在训练初始使用了成对损失,而在训练后期将代理损失与成对损失结合,加快模型的收敛。本文选取Proxy-NCA11和多相似性损失12作为主要损失。

Proxy-NCA损失为每个类分配一个代理,以便代理数量与类标签数量相同。给定一个输入数据点作为锚点,这个代理和同一类别的输入被认为是正的,其他的代理是负的。Proxy-NCA损失定义为:

LNCA=xX-loges(x,p+)p-P-es(x,p-)

式中:x为输入;p+ 为正代理;p- 为负代理;P-为负代理集;s(,)为两个向量的余弦相似度。

多相似性损失(Multi-similarity loss)通过采样和加权两次迭代,实现对样本高效的训练,并通过定义自相似性和相对相似性,在训练时更加全面地考虑了局部样本分布,从而能更高效精确地对重要样本对进行采用和加权。多相似性损失定义为:

LMS=1m1αlog1+kQie-α(Sik-λ)+1βlog1+kNieβ(Sik-λ)

式中:Sik 为样本对的余弦相似度;Qi 为正对样本集;Ni 为负对样本集;m为训练batch-size大小;λ为margin大小;αβ为控制权重尺度的超参数。

为了减少了训练过程中的复杂性并能够实现更快地收敛且兼顾数据点之间的细粒度语义关系,首先使用了多相似性损失函数训练神经网络,在训练一段时间后加入Proxy-NCA损失函数进一步提高框架性能,最终的度量损失函数为:

Lmetric=LMS+0.01×LPA

式中:LMS为多相似性损失;LPA为Proxy-NCA 损失。通过采用上述损失函数,可以减少训练过程中的复杂性并能够实现更快的收敛,同时兼顾数据点之间的细粒度语义关系,有效地训练图像分类任务中的特征提取网络,并提高分类框架性能。

最终的总损失为:

L=Lmetric+Lce

式中:Lmetric为总的度量损失;Lce为交叉熵损失。

可以看到,特征提取模块的训练目标是训练优秀的度量空间,其中,同类的样本距离更近,不同类的样本距离更远。同时,由于引入基于代理的损失,还会得到一个用训练集生成的类代理集合Proxy-Set。

鉴于不均衡数据集中少数类样本数量较少,在面对这种严重的数据不均衡问题时,为了减轻数据不均衡对分类结果的影响,借鉴集成学习的思想设计了一种新的阈值分类器。该分类器通过调整分类阈值优化图像的判定标准。

图2(a)所示,预先设置一个阈值τ,对于待分类的细粒度图像,它首先经过由图1训练框架中的MLP(Multilayer perceptron)分类器。MLP分类器是一个多层感知器分类器,经过训练集训练用于对细粒度图像进行分类。分类测试时,当MLP分类器输出的预测值大于等于设定的阈值τ时,保留MLP分类器预测结果。如果MLP分类器输出的优势标签的概率强度低于阈值τ,说明目前的图片无法获得确切的分类结果。这些无法获得确切效果的图片以少数类图片居多,将待分类图像送入最近邻(Nearest neighbor,NN)分类器并预测最终结果。其中,使用的近邻中心取为1.2节中的训练的代理集Proxy-Set这是为了减小由于数据不均衡造成的影响,并提高分类的准确性。

图2(b)中展示了当MLP分类器的预测值小于阈值时的处理流程。在这种情况下,图像特征将被送入NN分类器,并由该分类器输出最终的预测结果。NN分类器预测待分类图像与所有类代理的相似度,然后将该图像确定为与之最为相似的类中心点所在的类别。

这种分类方法的设计在面对数据不均衡的情况下都能得到合理的分类结果,从而提高了整体分类的准确性。在实验中,讨论和确定了阈值的设定,以确保分类结果的准确性。

2 实验结果及分析

2.1 数据集及预处理

在医学图像领域,相同器官的不同种类疾病往往有很高的相似度,并且由于罕见病的存在,医学图像数据集通常是典型的不均衡的细粒度图像数据集,本文选用了两个典型的医学领域不均衡的细粒度图像数据集验证本文方法。

本文分别在2019年眼科疾病智能识别国际竞赛提供的ODIR5K公开数据集13和COVID Radiography数据集14上验证了所提出的方法。ODIR5K数据集涵盖了8种不同类型的眼底图片。这8种类型分别是正常(Normal)、糖尿病(Diabetes)、青光眼(Glaucoma)、白内障(Cataract)、年龄相关性黄斑变性(AMD)、高血压(Hypertension)、近视(Myopia)和其他疾病(Other)。COVID Radiography数据集包含了4种不同类型的肺部X光图片,分别为正常(Normal)、肺部浑浊(Lung_Opacity)、新冠肺炎(COVID)、病毒性肺炎(Viral Pneumonia)。图3展示了这两种数据集中不同类型的图像。

由于数据集上的图像大小不同,为了保证图像的质量,对数据集进行了预处理。根据专家标注信息手动去除无效图像,如图像偏移、图像质量差等。裁剪了黑色边框以减少这种负面影响。该过程包括对图像进行背景前景分割,定位包含病变的前景区域,并根据前景的位置和大小调整图像的大小。所有这些操作均采用自动方式完成。最后,为了方便网络训练,通过归一化将所有图像缩放到[0,1]范围。

图4(a)中可以看出,ODIR5K数据集中不同疾病的图像数量分布表现出明显的不均衡情况。其中,正常眼底图像约有3 000张,糖尿病视网膜病变图像约有1 500张,其他疾病图像约有1 000张。剩余5个类别中,图像数量都不到500张,而其中高血压的图像最少,仅104张。从图4(b)中可以看出COVID Radiography数据集中同样存在数据不均衡的情况,其中正常和肺部浑浊图像共有约17 000张,病毒性肺炎图像数量最少约1 300张。上述两个数据集所展现出的样本不均衡情况在图像处理领域被认为是一个典型的长尾问题,即少数类别的样本数量明显少于多数类别样本的数量,这种样本不均衡的现象可能会对模型训练和性能产生负面影响。

2.2 实验设置

实验中,使用了PyTorch框架和PyCharm编译器,并在NVIDIA GeForce 2080Ti GPU上进行了训练。其中,70%的数据用于训练,30%的数据用于测试。在训练过程中,使用了ImageNet预先训练的权重微调模型。模型的输入大小为224×224,优化器为Adam,设置初始学习率为0.000 01,每10个epoch衰减0.1倍。Batch-size大小设置为32,并设置了40个epoch。在模型经过1 500次迭代后加入代理损失。

研究了不同的度量学习损失函数下,当改变嵌入大小从16到1 024时,网络性能是如何变化的。从表1可以明显地观察到模型的性能从32开始增加,在128处趋于稳定,并在128后性能开始下降,因此最终将Embedding Size的大小设置为128。

2.3 消融实验

为了兼顾代理损失和成对损失的优点,降低训练过程的复杂性,实现更快的收敛速度,同时兼顾数据点之间的细粒度语义关系,最终采用了Proxy-NCA损失函数和多相似性损失函数训练神经网络。从表2可以看出,本文方法不仅在性能上有着良好的表现,而且兼顾了模型的收敛速度。

探究了不同度量学习损失函数在不同衡量指标下的性能表现,表3展示了不同损失函数在ODIR5K数据集上的性能表现,表4展示了不同损失函数在COVID Radiography数据集上的性能表现。

分别验证了MLP分类器、NN分类器和本文所提出的方法在ODIR5K数据集和COVID Radiography数据集分类任务上的表现,并分别探究了3种分类器在不同数据集上不同类别样本上的性能表现。从表5中可以看出,本文方法不仅在样本数量较多的类别中表现优异,而且在高血压、青光眼和年龄相关性黄斑变性等样本较少的类别中准确率显著提高。从表6中可以看出,在新冠肺炎和病毒性肺炎等样本较少的类别中准确率较高。这表明了本文提出的方法在面对不均衡的细粒度数据时具有出色的适应能力,同时也很好地突出了本文提出的方法在处理样本稀缺的细粒度图像类别时的潜力和价值。

阈值分类器的性能会受到阈值设定的影响。为了深入研究在不同阈值下阈值分类器性能的变化,进行了详尽的研究,并将结果整理在表7表8中。表7展示了在ODIR5K数据集中不同阈值下的分类器性能,表8展示了在COVID Radiography数据集中不同阈值下的分类器性能。从表7表8中可以看出,随着阈值的增大准确率、F1、精准率、召回率相关衡量指标也会上升,当阈值超过0.48时,准确率、F1、精准率、召回率相关衡量指标会随着阈值的增大而逐步降低。从表7表8中可以看到当分类器阈值为0.48时,模型分类性能达到最佳。因此,最终将阈值分类器的阈值大小设定为0.48。

2.4 实验结果和分析

使用了常见的准确率(Accuracy)、F1、精准率(Precision)、召回率(Recall)作为性能评价指标。这些评价指标旨在提供对模型性能的深入了解,以便更全面地分析和比较不同方法所展现出的效果。

2.4.1 评价指标及结果

通过分析表9表10中数据可以明显地观察到,在准确率、F1、精准率、召回率这4项评价指标结果中,本文方法在各个类别中都有良好的表现;综合来看这4项评价指标的结果,本文方法在各个类别中都表现出优秀的性能,这表明该方法并非仅依赖于偏向多数类别提高评价指标的结果,而是能够有效克服不均衡数据所带来的挑战。这表明了本文提出的方法在处理不均衡数据问题上的有效性和可靠性。本文模型不仅能够平衡各个类别之间的性能表现,而且不会受到数据不均衡的影响,这对处理不均衡的细粒度图像数据集的分类任务具有重要意义。这个结果也进一步验证了本文方法在处理不均衡细粒度图像数据集方面的实用性和潜力。

2.4.2 与其他方法的对比

表11表12展示了不同方法在ODIR5K数据集和COVID Radiography数据集上的表现,现有方法大多数都没有能够在很好地挖掘图像细粒度属性的同时,关注到样本不均衡的问题,可以看到在不同评价指标上本文方法都优于现有方法。

通过对表11表12中不同方法在ODIR5K和COVID Radiography数据集上的表现进行比较分析,可以看到在ODIR5K数据集上,本文方法在准确率、F1、精准率和召回率方面都表现出色,分别达到了95.63%、95.30%、97.60%和93.30%。相较之下,EfficientNetB3、MCGS-Net和DSRACNN等方法在其中一些指标上表现较弱,而BFPC-Net在准确率和精准率上表现良好,但召回率相对较低。这表明本文方法在ODIR5K数据集上具有更全面的性能,不仅在准确性方面表现卓越,而且在处理不同评价指标时能取得优异的成绩;在COVID Radiography数据集上,本文方法同样取得了卓越的表现,准确率、F1、精准率和召回率分别达到了96.57%、93.40%、95.60%和91.30%。相较之下,COVID-CAPS和DRNN方法在准确率和F1上表现较好,但在精准率和召回率上可能存在一些不足。本文方法在各项指标上均取得了最佳的性能表现,在COVID Radiography数据集上显示出了更强的分类能力。

本文方法不仅在图像细粒度属性的挖掘方面表现出色,而且在处理样本不均衡问题时表现出优异的性能,未来的研究可以进一步验证和探究所提出的方法在更广泛和复杂数据上的适用性和稳定性。

3 结束语

本文提出了一种基于度量学习的阈值分类框架,引入了度量学习方法,提出了一种更有效的阈值分类算法,以提升不均衡细粒度图像分类任务的性能。基于以上改进,在ODIR5K数据集和COVID Radiography数据集上,阈值分类方法与其他几种方法相比,取得了进步。未来的工作中,将进一步致力于特征提取环节,进一步提升模型的性能。

参考文献

[1]

He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2016: 770-778.

[2]

Huang Z Z, Zhang J P, Shan H M. When age-invariant face recognition meets face age synthesis: a multi-task learning framework[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Kuala Lumpur, Malaysia, 2021: 7282-7291.

[3]

Ji R, Wen L, Zhang L, et al. Attention convolutional binary neural tree for fine-grained visual categorization[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 10468-10477.

[4]

Wei X S, Xie C W, Wu J, et al. Mask-CNN: localizing parts and selecting descriptors for fine-grained bird species categorization[J]. Pattern Recognition, 2018, 76: 704-714.

[5]

Zheng H, Fu J, Zha Z J, et al. Learning deep bilinear transformation for fine-grained image representation[J]. Advances in Neural Information Processing Systems, 2019, 32: No.03621.

[6]

Chang D, Ding Y, Xie J, et al. The devil is in the channels: Mutual-channel loss for fine-grained image classification[J]. IEEE Transactions on Image Processing, 2020, 29: 4683-4695.

[7]

Bera A, Wharton Z, Liu Y, et al. SR-GNN: spatial relation-aware graph neural network for fine-grained image categorization[J]. IEEE Transactions on Image Processing, 2022, 31: 6017-6031.

[8]

Sundgaard J V, Harte J, Bray P, et al. Deep metric learning for otitis media classification[J]. Medical Image Analysis, 2021, 71: No.102034.

[9]

Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16x16 words: transformers for image recognition at scale[J/OL].[2023-08-11].

[10]

Guo H, Wang S. Long-tailed multi-label visual recognition by collaborative training on uniform and re-balanced samplings[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Kuala Lumpur, Malaysia, 2021: 15089-15098.

[11]

Movshovitz-Attias Y, Toshev A, Leung T K, et al. No fuss distance metric learning using proxies[C]∥Proceedings of the IEEE International Conference on Computer Vision, Hawaii, USA, 2017: 360-368.

[12]

Wang X, Han X, Huang W, et al. Multi-similarity loss with general pair weighting for deep metric learning[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Los Angeles, USA, 2019: 5022-5030.

[13]

International Competition on Ocular Disease Intelligent Recognition[EB/OL]. [2021-11-18].

[14]

Rahman T, Khandakar A, Qiblawey Y, et al. Exploring the effect of image enhancement techniques on COVID-19 detection using chest X-ray images[J]. Computers in Biology and Medicine,2021,132:No.104319.

[15]

Wang J, Yang L, Huo Z, et al. Multi-label classification of fundus images with efficientnet[J]. IEEE Access, 2020, 8: 212499-212508.

[16]

Lin J, Cai Q, Lin M. Multi-label classification of fundus images with graph convolutional network and self-supervised learning[J]. IEEE Signal Processing Letters, 2021, 28: 454-458.

[17]

Li Z, Xu M, Yang X, et al. Multi-label fundus image classification using attention mechanisms and feature fusion[J]. Micromachines, 2022, 13(6): No.947.

[18]

Yang X, Yi S. Multi-classification of fundus diseases based on DSRA-CNN[J]. Biomedical Signal Processing and Control, 2022, 77: No.103763.

[19]

Afshar P, Heidarian S, Naderkhani F, et al. Covid-caps: a capsule network-based framework for identification of COVID-19 cases from X-ray images[J]. Pattern Recognition Letters, 2020, 138: 638-643.

[20]

Panahi A, Askari M R, Akrami M, et al. Deep residual neural network for COVID-19 detection from chest X-ray images[J]. SN Computer Science, 2022, 3(2): No.169.

基金资助

吉林省自然科学基金项目(20200201283JC)

吉林省产业关键核心技术攻关项目(20230201085GX)

国家自然科学基金面上项目(62071199)

AI Summary AI Mindmap
PDF (1235KB)

187

访问

0

被引

详细

导航
相关文章

AI思维导图

/