一种针对卷积神经网络的特征升维分析方法

潘永昊 ,  张苒苒 ,  于洪涛 ,  黄瑞阳 ,  金柯君

信息工程大学学报 ›› 2025, Vol. 26 ›› Issue (01) : 44 -50.

PDF (1263KB)
信息工程大学学报 ›› 2025, Vol. 26 ›› Issue (01) : 44 -50. DOI: 10.3969/j.issn.1671-0673.2025.01.007
计算机科学与技术

一种针对卷积神经网络的特征升维分析方法

作者信息 +

A Feature Dimensionality Augmentation Analysis Method for CNN

Author information +
文章历史 +
PDF (1293K)

摘要

针对卷积神经网络模型与输入数据紧密耦合的特性导致特征重要性难以区分的问题,提出一种从网络模型的输出结果中分析输入特征重要性的特征升维分析方法。首先,在高维欧氏空间中对输入网络模型的样本特征依次分配一个标准正交基,对输入样本特征进行升维表示;其次,在高维欧氏空间中对卷积神经网络进行计算扩展,并对升维表示的特征进行计算;最后,在计算结果中可由标准正交基与输入样本特征的对应关系,分析得出各个输入样本特征在输出结果中的影响权值。实验表明该方法分析得出的权重能够有效反映输入特征对卷积神经网络的影响力。

Abstract

To address the difficulty in distinguishing feature importance due to the close coupling between convolutional neural networks models and input data, a feature dimensionality augmentation method to analyze the importance of input features from the output results of the network model is proposed. Firstly, a standard orthogonal basis is sequentially assigned to the sample features of the input network model in a high-dimensional Euclidean space, and the input sample features are represented with dimensionality augmentation. Secondly, the convolutional neural networks is computationally extended in high-dimensional Euclidean space, and the features represented by the dimensionality augmentation are computed. Finally, in the calculation results, the corresponding relationship between the standard orthogonal basis and the input sample features can be analyzed to determine the influence weights of each input sample feature in the output results. Experiment shows that the weights analyzed in this method can effectively reflect the influence of input features on convolutional neural networks.

Graphical abstract

关键词

卷积神经网络 / 特征升维 / 权重分析 / 高维欧式空间

Key words

convolutional neural network / feature dimensionality augmentation / weight analysis / high-dimensional Euclidean space

引用本文

引用格式 ▾
潘永昊,张苒苒,于洪涛,黄瑞阳,金柯君. 一种针对卷积神经网络的特征升维分析方法[J]. 信息工程大学学报, 2025, 26(01): 44-50 DOI:10.3969/j.issn.1671-0673.2025.01.007

登录浏览全文

4963

注册一个新账户 忘记密码

卷积神经网络[1-5]是深度学习领域的经典模型,广泛应用于计算机视觉[1-2,4]、自然语言处理等领域[6-8]。卷积神经网络与其他深度神经网络一致,具有“黑盒”特性[9-10],模型可解释性不足,使得研究者难以理解模型做出决策的原因、方法以及决策的结论。针对卷积神经网络模型输入特征重要性的分析是神经网络可解释性[11]研究的重要方向之一,通过对模型输入特征的重要性分析,可得出该模型对输入数据中不同特征的关注度,增加对于模型运行和决策机制的理解,为改进设计、提升性能提供理论支撑。
近年来针对卷积神经网络输入特征的分析研究主要集中在图像处理领域,通过对卷积神经网络输入图像的重要特征进行量化分析,得到一组模型关注的重要特征,进而可视化显示卷积神经网络在做出决策时所关注的图像区域。文献[12]中提出的类激活图(Class Activation Map, CAM),通过追溯卷积核计算输出高维特征图中所包含的对应输入特征图中位置区域,并进一步使用全局平均池化(Global Average Pooling, GAP)为卷积层输出的高维特征图训练得出相应的权重,并由该权重数值与高维特征图所对应输入数据中的位置区域叠加生成类激活图,即为输入数据中的各个位置区域在模型计算结果中的影响力权值。文献[13]进一步提出基于梯度的类激活图(Grad-CAM),利用卷积神经网络计算各层均包含的梯度信息,通过梯度分析产生卷积层输出的高维特征图在模型计算结果中的权重以及对应在输入数据中的位置区域,从而叠加生成基于梯度的类激活图。由于从数据输入模型开始计算时,每个计算单元中均包含相应梯度信息,因此基于梯度的类激活图研究从理论上能够将模型所关注的输入样本的区域精确到输入样本的每个数值特征,然而梯度表示输入特征的变化率对模型计算结果的影响,并不能够准确描述输入特征在计算结果的所占比重,进而无法分析得出输入数据特征在模型计算结果中的影响力权值。文献[14]提出针对梯度的类激活图的改进方法,优化特征图中梯度的权重分析方法,增加梯度图的计算加权,得到更加收敛的重要特征区分布区域。文献[15]在卷积神经网络中,把由浅层特征与深层特征基于梯度的类激活图进行组合,分析得到更高细粒度的重要特征分布区域。现有相关研究所提出的针对卷积神经网络特征分析,能够分析得出模型在计算决策时所关注的重要特征分布区域,是把一组特征作为一个整体的分析结果,未详细区分数据样本中单个特征在模型计算结果中的重要性。
针对上述问题,提出一种针对卷积神经网络的特征升维分析方法。为了从卷积神经网络模型的计算结果中解耦输入样本特征的影响力权值,首先在与输入特征维度匹配的高维欧氏空间中为每个输入特征匹配一个标准正交向量进行升维表示;其次在高维空间中对卷积神经网络进行计算扩展,并对升维表示的输入特征进行计算;最后将卷积神经网络在高维空间中的计算结果,由输入特征与标准正交向量的对应关系,分析得出输入样本特征在模型输出结果中的影响力权值。实验验证所提方法得出的权重能够有效反映输入特征对卷积神经网络的影响力,并结合实验中设定的卷积神经网络模型分析所提方法计算复杂度。

1 系统模型

令图像样本尺寸为(N×N),当为灰度图像时,样本存储为XR1×N×N的三维张量,当为彩色图像时,样本存储为XR3×N×N的三维张量。对于张量中的数值xc,i,j,其在卷积神经网络中参与的计算均为定义在实数域上的加法与数乘运算。如特征数值x1x2R,其相关运算可表示为

ax1+bx2=c

式中:abR;显然cR。因此,当已知参数ab和计算结果c时,输入特征x1x2在计算结果c中的权重即为ab

对于卷积神经网络中的线性运算,其计算结果总能够表示为输入特征的线性组合,因此在计算结果中各个特征xc,i,j的系数即为该特征在结果中的影响力权值。

对于卷积神经网络模型,在常见典型模型中,非线性运算单元为ReLU激活函数与最大池化。然而,ReLU激活函数与最大池化虽然为非线性,但其计算输出的值仍然保留前序运算中线性组合的特点。以式(1)为例,当计算结果c>0并且通过ReLU激活函数时,c仍然能够表示为(ax1+bx2)的形式,但在后续计算中却难以将c通过模型的计算结果以及模型参数还原表示为(ax1+bx2)的形式。最大池化与ReLU激活函数同理。

因此,考虑对样本特征进行升维表示,使得每个特征在输入卷积神经网络时携带与自身对应的“冗余”信息,在模型的计算结果中,可通过该冗余信息解耦出每个样本特征对计算结果的影响力权值。使用n维欧氏空间的标准正交基对样本特征进行升维表示,定义一个标准正交向量集合A=α0,α1,,αn,,其中α向量表示为:

α0=1,0,0,,0,;α1=0,1,0,,0,;αn=0,0,0,,1,.

式中,α的下标以计算机程序中的习惯从0起算。

对存储图像样本的张量X进行升维表示,为张量中的每个数值xc,i,jR分配一个标准正交向量αc×N2+i×N+jA,将张量X中的xc,i,jR使用xc,i,jαc×N2+i×N+j表示,记为张量F,则F为四维张量。当对图像样本中的所有数值特征分配不同标准正交向量进行表示时,对于灰度图像共需要N2个标准正交向量,对于彩色图像则需要3N2个标准正交向量,则张量F的第4个维度尺寸分别至少为N23N2

为规范讨论,定义向量集合E,满足abRe1e2Eae1+be2E,其具有完备性,可表示为

E=ikiαi,kiR,iN,αiA

对于样本特征进行升维表示,在形式上由三维张量X升维表示成为四维张量F。由本文研究思路,也可理解为三维数值张量X升维表示成为三维“向量张量”F,可方便理解升维表示前后X中数值xc,i,jF中的向量fc,i,j的对应关系,即为相同索引位置的数值与向量正好对应,且xc,i,j=S(fc,i,j),其中S()表示向量的元素和。当图像样本为XR1×N×N时,升维后可表示为FE1×N×N;当图像样本为XR3×N×N时,升维后可表示为FE3×N×N。此处的“向量张量”与数学中张量的通用定义有所区别,该向量张量中的组成元素为向量,与通用定义中组成元素为数值的“张量”对应,使用“向量张量”进行注记,便于理解本文研究思路。

由于集合E具有完备性,因此“向量张量”F能够直接代入卷积神经网络中的所有线性运算单元进行计算。对于卷积神经网络中的非线性运算单元ReLU激活函数与最大池化,使用S(fc,i,j)作为判断条件进行针对向量fc,i,j的进一步计算。

由此,采用“升维”的研究思路,对数值特征进行升维表示,将每个样本特征由“数值”表示为“向量”,使得每个特征在高维空间中相互正交,在计算中携带更多与输入特征相关信息,利用卷积神经网络所具有的线性属性,在高维空间中对计算结果中各个输入特征所占影响力权值进行分析。

2 特征升维分析方法

2.1 特征的升维表示

针对向量张量F,在数学逻辑上为三维“向量张量”,而在算法逻辑上为四维数值张量。令原始图像样本中的特征数值数量为L,当为灰度图像时L=N2,当为彩色图象时L=3N2。对所有特征数值分配一个标准正交向量进行升维,共需要L个标准正交向量,因此每个标准正交向量的长度为L。为方便计算,多增加一个标准正交向量用于存储S(fc,i,j),因此共计使用(L+1)个标准正交向量,则每个标准正交向量的长度为(L+1)。在具体计算中将α0A分配用于存储S(fc,i,j)

为方便描述向量张量的数据结构,转换为四维数值张量进行讨论,因此升维后的特征张量为FR3×N×N×(L+1)。其中:第1个维度为颜色通道索引;第2、3个维度为图像的行列索引;第4个维度即为升维表示后原始特征在向量中的索引。针对特征张量进行升维表示的计算流程如算法1所示,该算法把输入特征与标准正交向量的对应关系,转换为计算机程序中对四维数值张量中的索引访问方法,计算得出高维特征张量。

算法1 特征的升维表示算法

输入:特征张量X

输出:特征张量F

1. 初始化: F ←0

2. for fc,i,j in F do

3. fc,i,j,0xc,i,j

4. dindexcN2+iN+j+1

5. fc,i,j,dindexxc,i,j

6. end

2.2 卷积神经网络在高维空间中的运算

由于得到的高维特征张量不满足卷积神经网络的现有运算定义,因此需在高维空间对卷积神经网络的运算进行扩展,分别使用卷积神经网络中的3个运算单元进行扩展运算方法的讨论。

2.2.1 卷积层

由于对特征进行升维表示时使用标准正交向量,且由集合E具有完备性,因此向量张量F可直接按照数值张量X的卷积计算规则进行计算,计算结果仍为向量张量,可以表示为:

H=FG
Hm,n=i=0k-1j=0k-1Fm+i-k-12,n+j-k-12Gi,j

式中:向量张量H为计算结果;矩阵G为(k×k)的卷积核。

由此,可进一步理解本文使用“向量张量”对特征张量进行升维表示的优势,且在具体程序算法中,以现有深度学习框架PyTorch为例,可直接由索引访问向量张量F中的向量,同时支持向量与卷积核中数值的数乘运算。

对于卷积层输出时使用ReLU函数[16]进行激活。在高维空间中的ReLU激活定义为:

ReLUe=e, S(e)>0;0, S(e)0.

由于S(e)=0时包含e0的情形,因此等于条件包含在小于条件中。在特征进行升维表示时,为S(fc,i,j)分配了标准正交向量α0A,可直接调用向量的第1个元素fc,i,j,0作为ReLU函数的激活条件,计算流程如算法2所示。该算法描述计算机程序中通过索引访问张量元素,实现ReLU激活函数计算。

算法2 向量张量的ReLU激活函数算法

输入:向量张量 F

输出:向量张量 F

1. for fc,i,j in F do

3. if fc,i,j,0 <=0 do

4. fc,i,j ←0

5. end

6. end

2.2.2 最大池化层

向量张量F通过最大池化层的计算与ReLU激活函数类似,即为在池化窗范围内,选取S(fc,i,j)最大的向量fc,i,j进入下一层即可。

2.2.3 全连接层

图像样本在经过卷积层与池化层的计算之后,展平为向量由全连接层进行计算,在对于特征进行升维表示之后,进入全连接层的向量中的元素由数值升维成了“向量”,仍然由特征进行升维表示时使用标准正交向量,且由集合E具有完备性,在全连接层中的算法逻辑与卷积层一致,可直接带入向量与矩阵的点积乘法,可以表示为:

z=yW
zj=i=0P-1yiWi,j

式中:zEQyEPWRP×Q

2.3 权重分析

由在高维空间中扩展定义的卷积神经网络计算得到各个分类结果,各个分类分别对应一个向量eE。由于该向量中的第1个元素与升维之前的卷积神经网络计算结果对应,因此从第2个到最后1个元素即为对应原始样本特征的在结果中的权重。因此,令向量e中的元素索引为dindex,则该元素所对应的原始样本特征xc,i,j的索引下标可以表示为:

c=(dindex-1)|N2
i=((dindex-1)mod(N2))|N
j=((dindex-1)mod(N2))mod(N)

式中:“|”表示整除;mod()表示求余。在程序中,由升维时约定的特征与标准正交向量的对应规则,可直接将向量e删除第1个元素,并按元素顺序将向量重新排列为与样本特征张量X相同尺寸的张量即可。

2.4 特征升维分析方法示例

基于Fashion-MNIST数据集[17]构造一个简单卷积神经网络,模型结构共7层,在Fashion-MNIST数据集上的测试准确率为80%。第1层为卷积层,卷积核尺寸为5×5,步长为1,填充为0,使用ReLU函数激活。第2层为最大池化层,滑窗尺寸为2×2,步长为2。第3层为卷积层,卷积核尺寸为5×5,步长为1,填充为0,使用ReLU函数激活。第4层为最大池化层,滑窗尺寸为2×2,步长为2。第5~7层为全连接层,各层神经元数量分别为120、60和10,第5、6层使用ReLU函数激活。

针对构造的简单卷积神经网络,使用本文分析方法对测试集中第1个样本Ankle Boot的10个模型计算结果进行分析。原始样本如图1所示,其样本特征进行升维表示后由卷积神经网络计算得出对应的10个分类权重分析结果如图2所示。图2中红色对应正数权重,蓝色对应负数权重,颜色越深,权重数值越大。由本文构造的简单卷积神经网络的计算结果为正确分类,如图2(j)所示。在图2(j)中,鞋跟与鞋尖位置的3个像素点对应的权值最大;鞋背位置的两个像素点对应的权值为数值最大的负数,即权值最小。图2(a)~图2(i)分别为9个错误分类对应的像素权重图像,可以观察到,在各个图像中对应权重最大与权重最小的像素点各不相同,且无明显的分布规律。一些像素点在不同的分类中,其权重数值有正有负。从总体上来看,图2中权重最大与权重最小的像素点数量规模较小,多数像素点的权重可近似为0。

3 实验验证

通过实验验证所提方法针对卷积神经网络模型分析得出的输入样本特征在计算结果中的权重有效性,即验证大权重特征与小权重特征对卷积神经网络模型的影响力。实验在两个典型图像数据集Fashion-MNIST和CIFAR10上[18]进行。Fashion-MNIST数据集使用构造的简单卷积神经网络模型进行测试。CIFAR10使用VGG16卷积神经网络模型进行测试。

3.1 实验设计

在两种数据集上分别使用两种方法进行。方法1根据卷积神经网络模型计算得到的最大分类进行分析,将权重数值对应的样本特征由大到小进行删除,依次记录每次删除后的测试准确率、删除0.2以上的样本特征规模;方法2根据权重数值将对应的样本特征由小到大进行删除,依次记录每次删除后的测试准确率、删除0.2以上的样本特征规模。选择0.2以上的删除规模是由图2中的权重分布规律所确定,在本文方法分析得出的权值中,仅有少量像素点在结果中的权重数值较大,其余均可近似为0。

实验通过分别删除大权重数值与小权重数值对测试准确率的影响,验证本文分析方法所得权重对于分类结果的影响力,观察该权重能否契合数据样本在卷积神经网络模型上的内在规律。

3.2 实验数据

图3为两个数据集和相应的卷积神经网络模型依据方法1和方法2进行实验测试所记录的准确率数据。

图3(a)为Fashion-MNIST数据集在本文构造的简单卷积神经网络模型上的实验结果。可以看出,方法1测试得到的准确率明显低于方法2测试得到的准确率。方法1测试得到的准确率在测试区间中最低为60.04%,共计下降21.53个百分点;方法2测试得到的准确率在测试区间中最低为66.4%,共计下降14.33个百分点。

图3(b)为CIFAR10数据集在VGG16卷积神经网络模型上的实验结果。可以看出,方法1测试得到的准确率在测试区间初段下降幅度明显,最低为20.21%,降幅达到70.17个百分点;方法2测试得到的准确率在测试区间上下降幅度平稳,最低为46.35%,降幅为43.2个百分点。在方法1的曲线中,出现小幅度高频振动,准确率在小范围内上下波动,然而整体下降趋势和下降幅度明显。

3.3 讨论

通过实验数据可观察到,方法1对于准确率的影响明显大于方法2,这表明本文分析方法得到的大权重对应的特征对于模型准确率的影响大于小权重特征。CFIAR10数据集在VGG16模型上的效果明显强于Fashion-MNIST数据集在简单卷积神经网络模型上效果,这表明VGG16模型较简单卷积神经网络模型复杂,特征学习能力强,对于数据集的特征学习能力明显强于简单卷积神经网络,且本文分析方法基于VGG16模型得出的权重更能契合数据集的内在规律。然而,从图3中的数据也可观察到,方法2针对小权重特征进行删除时,对于模型的测试准确率仍然具有明显的影响。

4 计算复杂度

单个卷积层的时间复杂度为O(M2K2CinCout)。其中:M为卷积核输出的特征图的尺寸;K为卷积核的尺寸;Cin为输入通道数;Cout为输出通道数。整个卷积神经网络的时间复杂度为O(l=1DMl2Kl2Cl-1Cl)。其中:D为卷积神经网络的卷积层数;l为卷积层的顺序索引。

卷积神经网络的空间复杂度为O(l=1DKl2Cl-1

Cl+l=1DMl2Cl)。当把向量特征的长度记为V时,其时间复杂度为O(M2K2CinCoutV)、空间复杂度为O(l=1DKl2Cl-1Cl+l=1DMl2ClV)。相当于时间复杂度在原有的基础上乘了V倍,空间复杂度在原有的后半部分基础上乘了V倍。对于时间复杂度,(M2V)与图像样本尺寸N为4次方的关系;对于空间复杂度的讨论,前半部分可忽略,可以表示为O(l=1DMl2ClV)。由于计算时通常不会在内存中一直保留已经计算得到的结果,因此更加关注单层卷积层的空间复杂度。

在当前GPU并行计算能力巨大进步的背景之下,对于时间复杂度的敏感程度在逐步降低,程序设计中对空间复杂度更加敏感,GPU卡提供的显存容量大小成为程序设计的主要关注点。结合Fashion-MNIST(28×28)、CIFAR10(32×32)数据集的样本参数与VGG16的模型参数,给出每个卷积层的空间复杂度,并将其换算为使用单精度浮点型时的实际存储空间需求,如表1所示。

本文方法针对Fashion-MNIST数据集在简单卷积神经网络模型的测试集与CIFAR10数据集在VGG16模型的测试集进行权重分析,该两个测试集中均包含10 000张图像样本,在RTX4090上的用时分别为8 s、4 h 50 min。

5 结束语

通过对于样本特征进行升维表示,提出一种针对卷积神经网络的样本特征升维方法,该方法可对于卷积神经网络的计算输出解耦原始样本输入特征的影响权值。通过实验验证该分析方法得到的权值能够契合卷积神经网络在图像分类应用中的内在规律,并进一步针对该方法进行计算复杂度讨论。对于方法分析出的权值,在讨论中仅考虑最大数值对应的像素点即为在结果中影响力最大的样本特征,最小数值对应的像素点即为在结果中影响力最小的样本特征。但还存在另一种情形,即权重数值的绝对值最大数值对应的像素点为影响力最大的特征。由实验数据可观察到,虽然删除大数值的负数权重对应的样本特征对于模型测试准确率的影响低于本文讨论的情形,但其影响仍然较为明显。针对该种情形的讨论,将在后续研究中结合卷积神经网络的对抗性攻击研究进行。

参考文献

[1]

KRIZHEVSKY ASUTSKEVER IHINTON G E. ImageNet classification with deep convolutional neural networks [C]∥Proceedings of the 25th International Conference on Neural Information Processing Systems. Red Hook, USA: Curran Associates Inc., 2012:1097-1105.

[2]

SIMONYAN KZISSERMAN A. Very deep convolutional networks for large-scale image recognition[DB/OL]. (2015-04-10)[2024-04-27].

[3]

SZEGEDY CLIU WJIA Y Q, et al. Going deeper with convolutions[C]∥Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015. DOI: 10.1109/CVPR.2015.7298594 .

[4]

HE K MZHANG X YREN S Q, et al. Deep residual learning for image recognition[C]∥Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016:770-778.

[5]

HOWARD A GZHU M LCHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications[DB/OL]. (2017-04-17)[2024-04-27].

[6]

KIM Y. Convolutional neural networks for sentence classification[C]∥Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Doha, Qatar: Association for Computational Linguistics, 2014:1746-1751.

[7]

KALCHBRENNER NGREFENSTETTE E, BLUNSOM, P. A convolutional neural network for modelling sentences[C]∥Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Baltimore, USA: Association for Computational Linguistics, 2014:655-665.

[8]

宋旭晖,于洪涛,李邵梅.基于图注意力网络字词融合的中文命名实体识别[J].计算机工程202248(10):298-305.

[9]

ADADI ABERRADA M. Peeking inside the black-box: a survey on explainable artificial intelligence[J]. IEEE Access20186:52138-52160.

[10]

RICCARDO GANNA MSALVATORE R, et al. A survey of methods for explaining black box models[J]. ACM Computing Surveys201851(5):93.

[11]

赵延玉,赵晓永,王磊,可解释人工智能研究综述[J].计算机工程与应用202359(14):1-14.

[12]

ZHOU B LKHOSLA ALAPEDRIZA A, et al. Learning deep features for discriminative localization[C]∥Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016:27-30.

[13]

SELVARAJU R RCOGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization[C]∥Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017:618-626.

[14]

CHATTOPADHAY ASARKAR AHOWLADER P, et al. Grad-CAM++: generalized gradient-based visual explanations for deep convolutional networks[C]∥Proceedings of 2018 IEEE Winter Conference on Applications of Computer Vision. Lake Tahoe, USA: IEEE, 2018:839-847.

[15]

JIANG P TZHANG C BHOU Q, et al. LayerCAM: exploring hierarchical class activation maps for localization[J]. IEEE Transactions on Image Processing202130:5875-5888.

[16]

NAIR VHINTON G E. Rectified linear units improve restricted boltzmann machines[C]∥Proceedings of International Conference on Machine Learning. Haifa, Israel: Omnipress, 2010:21-24.

[17]

XIAO HRASUL KVOLLGRAF R. Fashion-MNIST: a novel image dataset for benchmarking machine learning algorithms[DB/OL]. (2017-08-25)[2024-04-27].

[18]

KRIZHEVSKY AHINTON G. Learning multiple layers of features from tiny images[EB/OL]. (2009-04-08)[2024-04-27].

基金资助

嵩山实验室项目(纳入河南省重大科技专项管理体系)(221100210700-3)

AI Summary AI Mindmap
PDF (1263KB)

171

访问

0

被引

详细

导航
相关文章

AI思维导图

/