基于改进的EfficientNetV2和UNetTSF的刀具磨损状态识别及预测方法

张曦 ,  朱红 ,  张龙佳 ,  ABDELTAWAB Ahmed

中国机械工程 ›› 2026, Vol. 37 ›› Issue (03) : 668 -678.

PDF (5178KB)
中国机械工程 ›› 2026, Vol. 37 ›› Issue (03) : 668 -678. DOI: 10.3969/j.issn.1004-132X.2026.03.016
智能制造

基于改进的EfficientNetV2和UNetTSF的刀具磨损状态识别及预测方法

作者信息 +

Tool Wear State Identification and Prediction Method Based on Improved EfficientNetV2 and UNetTSF

Author information +
文章历史 +
PDF (5301K)

摘要

针对刀具在机磨损状态监测问题,为提高刀具磨损预测的准确性,提出了一种融合格拉姆角场(GAF)、改进的EfficientNetV2轻量级网络和UNetTSF时序预测模型的新型监测模型GAF-iEfficientNetV2-UNetTSF。该模型采用先分类后预测的策略,采集刀具加工过程中的力信号,并使用分段聚合技术实现特征降维,利用格拉姆角场分别对三向力信号进行编码,得到三组单通道图像,并将同一时序下的三组单通道图像堆叠成三通道图像。构建改进的EfficientNetV2训练网络进行特征的自动提取和分类以实现刀具磨损状态识别。针对最关键的刀具磨损状态,利用UNetTSF模型进行磨损值预测,以实现精确预判。通过对比实验,验证了该模型在刀具磨损状态识别任务中的高准确率以及磨损值预测方面的高精度,为刀具磨损状态监测领域提供了一种更精准的监测方法,对提高工业生产效率和降低维护成本具有重要意义。

Abstract

In order to improve the accuracy of tool wear prediction for the problems of tool in-machine wear condition monitoring, a new monitoring model named GAF-iEfficientNetV2-UNetTSF was proposed integrating GAF, the improved EfficientNetV2 lightweight network, and the UNetTSF time-series prediction model. The model adopted the strategy of first classification and then prediction. Firstly, the force signals were acquired during machining processes by tool, and the feature dimensionality reduction was realized by segmented aggregation technique. Then GAF was used to encode the three-directional force signals respectively, and three groups of single-channel images were obtained. The three groups of single-channel images under the same time sequence were stacked into three-channel images. Subsequently, an improved EfficientNetV2 training network was constructed to automatically extract and classify features to recognize the tool wear states. Finally, for the most critical tool wear states, the UNetTSF model was utilized for wear value prediction in order to achieve accurate prediction. Through comparative experiments, the high accuracy of the model in the task of tool wear state recognition and the high precision in wear value prediction were verified. The results provide an efficient and accurate monitoring method in the field of tool wear state monitoring, and is of great significance for improving industrial production efficiency and reducing maintenance costs.

Graphical abstract

关键词

格拉姆角场 / EfficientNetV2 / UNetTSF / 刀具磨损状态 / 刀具磨损监测

Key words

Gramian angular field (GAF) / EfficientNetV2 / UNetTSF / tool wear state / tool wear monitoring

引用本文

引用格式 ▾
张曦,朱红,张龙佳,ABDELTAWAB Ahmed. 基于改进的EfficientNetV2和UNetTSF的刀具磨损状态识别及预测方法[J]. 中国机械工程, 2026, 37(03): 668-678 DOI:10.3969/j.issn.1004-132X.2026.03.016

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

随着数控加工技术的不断发展,刀具作为加工的关键要素之一,其性能直接影响生产效率和产品质量。然而,刀具在切削过程中不可避免地会发生磨损,这将导致加工件尺寸超差和表面粗糙度增大,严重时则导致机床振动1,因此,准确判断并预测刀具的磨损状态对合理换刀决策以保持高效生产和良好的产品质量至关重要2-3。在实际应用中,刀具磨损通常被划分为以下4种状态4:①初期磨损,刀具磨损量非常小,对加工质量几乎没有影响,可通过重新磨削恢复;②稳定磨损,磨损量有所增加,但不会显著影响加工精度或表面质量;③加速磨损,刀具磨损对加工质量产生明显影响,可能导致切削力增大、表面质量下降,需要及时更换刀具;④急剧磨损,刀具已经完全失效,无法继续使用,需要立即更换刀具以避免生产中断。

近年来,国内外学者针对刀具磨损开展了诸多研究。在基于神经网络的刀具磨损状态监测研究中,模型的输入通常分为两种形式,一种为刀具在切削过程中经过传感器采集到的一维时间序列数据,如力信号和振动信号等。YANG等5建立了基于轨迹相似度和支持向量回归的铣刀磨损预测模型,对力信号进行时域及小波分析,选择最相关的5个特征量输入模型中进行预测。LIU等6提出轻量级梯度算法提升机(light gradient boosting machine, LightGBM)方法获取力和振动信号的最优特征,构建改进人工蜂群算法优化的反向传播神经网络(back propagation neural network optimized by improved artificial bee colony, IABC-BPNN)实现特征融合并对刀具磨损进行预测。上述研究虽已取得进展,但均需要人为进行特征选择,且依赖于专家经验,由于在提取过程中难免会引入随机误差,且对不同的刀具类别需要进行重复工作,因此,现有方法的普适性较差。

另一种模型的输入形式为基于视觉的刀具磨损图像。BERGS等7利用全卷积神经网络(fully convolutional network, FCN)对刀具图像进行语义分割以检测微观刀具图像上的磨损区域,并在测试集上取得了较好的效果。林晨8通过立铣刀图像采集装置获取刀具后刀面磨损图像,同时使用DeepLabV3+语义分割网络识别定位磨损区域,以检测刀具磨损状态。虽然采用磨损图像可以定量分析刀具的磨损情况,但其图像需要在机床停机后拍摄得到,相较于传感器信号能在加工过程中同步取得,它的获取难度和时间成本更大。

为了克服上述问题,近年来出现了一些新方法。滕瑞等9提出了一种基于图像编码技术和卷积神经网络(CNN)的刀具磨损值在线监测方法,通过将时间序列信号图像化并利用深度CNN自适应提取特征,以提高检测精度和泛化性能。梁军华10提出一种基于迁移学习和轻量化网络模型EfficientNet的刀具磨损状态监测方法,对镍基高温合金切削过程中的刀具磨损形貌进行光学图像的状态监测,实验结果表明EfficientNet网络模型的磨损形貌监测精度显著高于其他轻量化模型。LI等11提出了一种时序预测新模型UNetTSF(U-Net timeseries forecasting),模型采用U-Net架构,通过特征金字塔网络(feature pyramid networks, FPN)技术提取时间序列数据的特征,能够更有效地提取时间和深度特征。这些新方法通过引入深度学习技术,减少了对人工特征提取的依赖,提高了模型的泛化能力和监测精度。然而,现有方法大多只关注刀具磨损状态的分类或预测任务,未能充分利用分类和预测的协同优势,从而影响了预测精度的进一步提高。

本文提出一种新型的刀具磨损状态监测模型GAF-iEfficientNetV2-UNetTSF,该模型融合了格拉姆角场(Gramian angular field, GAF)、改进的轻量级卷积神经网络EfficientNetV2(improved EfficientNetV2, iEfficientNetV2)以及线性时间序列预测模型UNetTSF,以实现高准确率的刀具磨损状态识别和预测。

1 模型基本原理

1.1 格拉姆角场

格拉姆角场(GAF)是一种将时间序列数据转化成图像形式的编码技术,其核心思想是基于格拉姆矩阵的角度表示,通过将时间序列数据点之间的夹角映射到图像中,使得时间序列的动态特性得以可视化呈现。GAF的原理具体如下12

设有向量u=(u1,u2,,un)v =(v1v2,…,vn),而格拉姆矩阵是由一对对向量的点积组成的矩阵:

G=(u1,v1)(u1,v2)(u1,vn)(u2,v1)(u2,v2)(u2,vn)(un,v1)(un,v2)(un,vn)

uv 都是单位向量,则它们之间的点积只由角度决定,而这个角度可以用弧度表示,那么格拉姆矩阵将变为

G=cosθ1,1cosθ1,2cosθ1,ncosθ2,1cosθ2,2cosθ2,ncosθn,1cosθn,2cosθn,n

式中:θi,j为两个向量之间的夹角。

假设传感器采集到的数据X={x1x2,…,xn },为避免不同量纲之间对结果的影响,需要进行归一化:

x̃i=xi-min Xmax X-min X

式中:xix̃i分别为归一化前后的数据;max Xmin X分别为数据的最大、最小值。

将归一化后的数据用角余弦进行编码,值范围在0,π之间,并将其对应的时间戳编码为半径:

ri=tiN,tiNθi=arccos(x̃i),-1x̃i1,x̃iX̃

式中:θi为极角;tix̃i对应的时间戳;N为时序中所有时间点总数。

然后利用三角函数和角公式构建格拉姆角和场(Gramian angular summation field, GASF):

AGASF(i,j)=cos(θ1+θ1)cos(θ1+θj)cos(θ2+θ1)cos(θ2+θj)cos(θi+θ1)cos(θi+θj)

式中:θiθj分别表示时间点为ij的极角。

式(5)可知,随着时间增加,编码位置从矩阵的左上角依次移动到右下角,而时间维度则通过GAF编码到矩阵的几何结构中,见图1

1.2 EfficientNetV2轻量级卷积神经网络

EfficientNetV2是一种轻量级卷积神经网络算法,通过优化深度、宽度和分辨率的均衡缩放来提高模型性能13。与传统的视觉几何组(VGG)网络和残差卷积网络(ResNet)相比,EfficientNetV2的优势在于其采用深度可分离卷积和含注意力机制的残差模块,显著降低了参数量和计算量,同时提高了特征提取的能力。

EfficientNetV2核心模块主要包括移动瓶颈卷积(mobile inverted bottleneck convolution,MBConv)和混合移动瓶颈卷积(fused mobile inverted bottleneck convolution,Fused MBConv)。前者通过普通卷积、批量归一化(batch normalization, BN)、SiLU激活函数、深度可分离卷积(depthwise Conv,DWConv)和SE(squeeze-and-excitation)注意力机制模块实现高效提取特征。其中DWConv k×k卷积中的k为3或5,可减少模型运算和参数量;SE模块包含1个平均池化层(average pooling, AvgPooling)和2个全连接层(fully connected, FC),用于压缩特征图的通道比率;捷径分支(shortcut)只有在步距(stride, S)S=1且输入特征矩阵的通道数(channel, C)与输出特征矩阵的通道数相同时才存在,并且随机失活层(Dropout)在有捷径分支时才会添加。后者则采用一个3×3常规卷积代替MBConv中的深度可分离卷积和1×1扩展卷积,以简化计算并增强特征表示能力14。两者的具体结构如图2图3所示。

1.3 UNetTSF时间序列预测模型

UNetTSF模型是一种新型的时间序列预测模型,结合了U-Net架构和特征金字塔网络技术,以实现对时序数据的高精度预测。

UNetTSF的核心在于创新的时间序列特征金字塔网络FPN方法,该方法通过使用平均池化函数(average pool, AvgPool)对时间序列数据进行多级特征提取。如图4所示,将数据划分为4层,并使用平均池化操作以提取趋势特征11。设原始输入数据为x,经过FPN方法处理后,形成4个层级的输入数据X={x1,x2,x3,x4},其中x1=xx2=AvgPool(x1)x3=AvgPool(x2)x4=AvgPool(x3)。这种处理方式不仅降低了计算复杂度,而且更有效地提取了时间序列数据中的趋势特征。

UNetTSF模型由全连接层和池化层组成,如图5所示。该模型左侧主要由时间序列FPN组成,通过平均池化函数对输入数据进行下采样;模型的右侧为融合(cat)模块,利用全连接层将上层特征与局部特征进行融合,以输出当前层的最终特征,且特征长度保持不变。在这个过程中,全连接层不仅合并了来自不同层的特征,还增强了模型对数据变化的敏感性和预测精度。

2 基于GAF-iEfficientNetV2-UNetTSF的刀具磨损状态监测方法

2.1 GAF-iEfficientNetV2刀具磨损状态分类

为了提高模型分类检测的精度,本文提出一种基于GAF-iEfficientNetV2的轻量级刀具磨损检测模型,改进后的网络结构如图6所示。本文选取在训练速度和参数量上都有较好表现的EfficientNetV2-S网络作为主要分类模型。在Fused MBConv模块中,引入空间通道重组卷积(spatial and channel reconstruction convolution, SCConv)模块15和全局注意力机制(global attention mechanism, GAM)模块16得到改进后的Fused MBConv,并命名为iFused MBConv模块。iEfficientNetV2模型由3个iFused MBConv模块、3个MBConv模块、2个卷积层、1个池化层和1个全连接层组成。首先将输入图像进行3×3的卷积,以提取初步特征,接着模型通过3个iFused MBConv模块进一步提取图像特征,再利用3个MBConv模块得到最终特征。最后通过1×1卷积和池化层进一步增加通道数并降低特征图的维度,并通过全连接层映射为最终需要的刀具磨损四分类。

在iFused MBConv模块中,先通过3×3卷积提取初始特征;随后通过SCConv动态选择不同的卷积核,强化特征表达能力,使得网络能更加关注局部重要特征;再通过GAM计算全局特征图的注意力权重,将全局上下文信息应用于每个通道的特征图,从而实现全局信息与局部特征的有效融合。然后使用1×1卷积将拓展后的特征图维度调回所需的输出维度,接着采用BN层对每层输出结果进行归一化,提高模型的训练效果和性能。最后通过Dropout层随机丢弃一部分神经元的输出,增加网络的鲁棒性,防止过拟合。

2.1.1 SCConv卷积模块

在传统卷积神经网络中,标准卷积和深度卷积是常用的卷积方式。标准卷积操作计算量大,但能够捕捉跨通道的信息;深度卷积操作计算量小,但在捕捉跨通道依赖性方面表现不佳。现有的标准卷积和深度卷积在计算效率和特征提取能力之间难以权衡,单一类型的卷积无法同时满足这两者的要求。而本文选择的SCConv卷积模块通过动态选择不同的卷积核,能够灵活适应不同的特征图模式,从而弥补了传统卷积方式的不足,实现了计算效率和特征提取能力的平衡。

SCConv主要包含空间重构单元(spatial reconstruction unit, SRU)和通道重构单元(channel reconstruction unit, CRU)这两个主要单元,实现对输入特征的高效处理。首先,输入特征X进入SRU单元,通过组归一化缩放因子来评估空间信息内容,进而将空间信息丰富与信息贫乏的特征分离。然后采用交叉重构技术将这两类特征进行加权组合,生成空间重构特征图X(W)。接着,将该特征图输入CRU单元,经过分割、变换和融合操作,使用逐分组卷积及逐点卷积提取特征剔除通道冗余信息,同时有效降低计算成本,最终形成通道重构特征图Y,如图7所示。这些特征能优化输入图像的空间信息和通道信息,从而提高Fused MBConv模块的特征提取能力。

2.1.2 GAM注意力机制模块

卷积神经网络在处理图像任务时通常侧重于局部特征的提取,而忽略了全局上下文信息,一定程度上限制了模型在处理复杂任务时的表现。传统卷积操作主要关注局部特征,缺乏对全局信息的整合,导致模型难以充分利用全局上下文信息来提高特征表达的完整性和准确性。GAM注意力机制通过计算全局特征图的注意力权重,并将其应用于每个通道的特征图,从而实现了全局信息与局部特征的有效融合,大幅提高了模型的特征提取能力和整体性能。

图8所示,GAM由通道注意力MC和空间注意力MS两个子模块串联组成。在通道注意力子模块中,通过3D转置保留跨纬度信息,接着利用结构为编码-解码器的多层感知器(multiple layer perception,MLP)放大通道间的跨维度依赖关系。在空间注意力子模块中,采用两个7×7的卷积层对空间信息进行融合,聚焦于有效空间特征信息,最后通过Sigmod函数激活输出最终特征F2

2.2 刀具磨损状态监测方法

本文提出一种基于GAF-iEfficientNetV2-UNetTSF的先分类后预测策略的刀具磨损状态监测方法,整体流程如图9所示。为了量化刀具磨损,定义刀具切削刃后刀面磨损区域的最大高度值为刀具磨损量Vb。首先,在刀具切削加工过程中,采用多个传感器采集不同的数据对刀具状态进行监测,为了筛选出与Vb值最相关的传感器信号数据从而达到较好的模型监测精度,需要研究信号数据与Vb值之间的相关性。为了后续能通过格拉姆角场编码成三通道RGB图像,这里取前三个高相关信号作为输入信号。

其次,对筛选出的高相关信号进行数据预处理。由于一次完整加工将获得几十万个数据点,为了保留时间序列的同时为数据降维,将原始数据按照切削次数划分,每段各选取中间部分关键点为该段数据,然后通过分段聚合近似(piecewise aggregate approximation,PAA),将加工时间序列分割成多个子序列,每个子序列用原始序列的均值表示以进一步缩短长序列。然后,将降维后的信号进行极坐标系变换以得到每一个数据点对应的半径与角度,并通过余弦矩阵相加编码成GAF图像,此时的图像为单通道灰度图17。由于每个时间点在3个高相关信号上都具有强关联性,故利用stack方式将同一时刻的3个信号的GAF图像堆叠为一张三通道的RGB图像,从而完成格拉姆编码成像过程。

虽然卷积神经网络在处理图像任务时已取得良好的效果,但为了在高效计算的前提下提高模型分类的精度,本方法选择加入SCConv模块和GAM模块的iEfficientNetV2网络,并将最后一层全连接层修改为经过池化后输出4个类别,分别为初期磨损阶段、稳定磨损阶段、加速磨损阶段和急剧磨损阶段,以表征刀具的不同磨损状态。

接着选取在实际生产加工过程中最易出现刀具失效需要提示换刀的两个刀具磨损阶段:稳定磨损阶段和加速磨损阶段,采用时间序列预测模型UNetTSF对两个阶段分别进行刀具磨损值预测的模型训练并评估模型训练效果。

最后输入测试数据至GAF-iEfficientNetV2-UNetTSF刀具磨损监测模型中,先通过GAF-iEfficientNetV2网络输出刀具所处的状态类别,若为初期磨损阶段,则不提示换刀;若刀具状态为稳定磨损或加速磨损类别,根据现在所处的类别选择对应的UNetTSF模型,将时序信号数据放入模型中输出预测的磨损值Vbpre。根据实际加工中对刀具磨损精度的要求设定相应的换刀磨损阈值i,当系统判断预测磨损Vbpre超出换刀磨损阈值i时,系统将提示换刀;若刀具状态为急剧磨损阶段,则说明刀具已经完全失效,无法继续使用,需要立即提示更换刀具。

3 实验验证

3.1 实验条件

本文使用美国PHM协会公开的铣刀磨损数据集作为原始数据来验证方法效果。刀具采用6把直径6 mm的三齿球头硬质合金铣刀,材料为不锈钢HRC52。机床为Röders Tech RFM760高速数控铣床,切削方式采用顺铣,表1展示了具体的切削参数。

利用安装在工件上的测力仪和加速度传感器分别采集加工过程中xyz方向上产生的力信号FxFyFz 以及振动信号VxVyVz,同时利用声发射传感器采集声发射信号ae,最终得到7组随时间变化的信号数据。每把铣刀按表1切削参数进行全寿命切削实验,分别进行315次端面铣,每次沿x方向端铣108mm后,使用LEICA MA12显微镜对每个切削刃后刀面磨损的Vb值进行单独测量,并取最大值作为刀具磨损量。

为了获取最佳的输入信号代入模型训练,首先对力信号、振动信号和声发射信号与Vb值进行斯皮尔曼相关性分析,其中FxFyFzVb值的相关性分别为93%、96%和95%,远远高于VxVyVzae,故选取相关性最高的力信号作为原始数据。图10所示为Vb值与输入力信号、振动信号和声发射信号之间的相关性分析结果。

选用数据集中C1铣刀对应的力信号作为实验数据,由于GAF-iEfficientNetV2模型是针对刀具状态识别的分类任务,而数据集中的磨损曲线图为连续的回归标签,因此,按照铣刀3个切削刃的最大后刀面磨损值Vb将刀具磨损量重新划分为4个阶段,这些阶段对应的最大后刀面磨损值的GAF示意编码图像见图11

对于UNetTSF预测模型,由于一次刀具切削过程只对应一个后刀面磨损Vb值标签,那么稳定磨损阶段的标签数量为125,加速磨损阶段的标签数量为75,每段的标签数量较少。若不对标签数量进行扩充,直接放入UNetTSF模型中进行训练,当样本量较少时,容易出现欠拟合现象,从而影响最终的预测精度。为了解决这一问题,本文通过将一次切削过程划分为50段,对每段力信号求平均值,并打上相对应的Vb值标签,那么原本稳定磨损和加速磨损阶段的数据-标签的对应数量分别扩充到6250个和3750个,大大增加了输入数据的样本量,从而获得更高精度的刀具磨损值预测。

3.2 评价指标

3.2.1 GAF⁃iEfficientNetV2评价指标

为了验证GAF-iEfficientNetV2模型的训练效果能否用于刀具磨损状态分类中,本文采用准确率ACC、精确率P、召回率R和平衡F分数F1作为模型的评价指标18

ACC=i=14TPiTP+FP+FN
P=TPTP+FP
R=TPTP+FN
F1=2PRP+R

式中:TP表示真实标签是正类且分类结果正确;TN表示分类标签是负类但分类结果正确;FP表示真实标签是正类但分类结果错误;FN表示真实标签是负类且分类结果错误。

3.2.2 UNetTSF评价指标

为系统评估UNetTSF模型用于刀具磨损值预测的效果,引入均方根误差(RMSE)、平均绝对误差(MAE)、平均绝对百分比误差(MAPE)和决定系数(R2)作为模型的评价指标:

ERMSE=1mi=1m(yi-y^i)2
EMAE=1m|yi-y^i|
EMAPE=1m|yi-y^iyi|
R2=1-i=1m(yi-y^i)2i=1m(yi-y¯)2

式中:m为测试数据的样本数量;yi为真实刀具磨损量;y^i为刀具磨损量的预测值;y¯为真实值的平均值。

3.3 实验结果分析

3.3.1 GAF⁃iEfficientNetV2刀具磨损状态分类模型

GAF-iEfficientNetV2模型训练效果如图12所示。随着迭代次数的增加,该模型的训练和验证准确率均逐步提高,最高分别达到了98.93%和97.95%。此外,二者在训练过程中差距较小,说明该模型具有较强的泛化能力。

3.3.1.1 消融实验

为验证所提出改进模型的有效性,对改进的每一项分别进行了实验,如图13所示。在EfficientNetV2的Fused MBConv模块中分别引入SCConv和GAM,并将它们命名为SC-EfficientNetV2和G-EfficientNetV2。对比分析原模型和加入改进模块后的模型在准确率、精确率、召回率和F1-score方面的表现,实验结果见表2。与原模型相比,改进模型在所有指标上均有所提升,其准确率分别达到了96.21%和96.50%。综合这两项改进得到的iEfficientNetV2准确率达到97.95%,比原模型提高了2.65%,充分验证了基于EfficientNetV2改进模型的可行性和有效性。

3.3.1.2 分类结果比较

通过绘制iEfficientNetV2模型在测试集上的混淆矩阵,展示模型对不同类别的刀具磨损状态的预测结果。混淆矩阵的列和行分别代表最终分类结果的真实值和预测值,主对角线上的数值代表刀具磨损状态分类正确的数量,而除对角线以外区域的数值代表被错误分类的样本数量。主对角线颜色越深,说明分类的准确度越高19图14展示了EfficientNetV2在测试集上的混淆矩阵,图15则展示了改进后的iEfficientNetV2在同一测试集上的混淆矩阵表现。

改进前的原模型在稳定磨损加速磨损和急剧磨损3个类别上均出现了图像混淆比例较大,效果不佳的情况。经过模型改进后,通过分析混淆矩阵可知,模型在对这3个类别的判断上均有显著提高,精确率由原来的95.06%、94.53%和94.75%分别提高到97.67%、97.76%和97.92%。

3.3.2 UNetTSF刀具磨损值预测模型

原数据刀具磨损值随切削时间增加而增加,数据呈一定的规律性,模型反复依次序学习这种数据特征,很快会达到过拟合状态,并且可能学会的是数据的次序特征,导致模型缺乏泛化能力。为了防止过拟合并使模型学到更加正确的特征,这里对稳定磨损阶段和加速磨损阶段的数据进行了打乱操作,消除数据间的次序特征,学习真正的类别特征,以提高模型的预测表现。图16图17分别为稳定磨损和加速磨损阶段的UNetTSF模型预测效果。

图16可以看出,UNetTSF模型在稳定磨损阶段展现出了较高的预测精度,其预测值与刀具磨损的真实值之间的最大误差不超过3 μm,最小则接近于0,误差较小且分布均匀,表明模型能准确捕捉刀具磨损值的变化趋势。在加速磨损阶段,如图17所示,模型预测值与真实值之间的最大误差不超过3.8μm,尽管加速磨损阶段的误差有所增加,但模型依然能较好地拟合刀具磨损值,显示出一定的鲁棒性。

3.4 GAF-iEfficientNetV2-UNetTSF与主流研究方法对比

3.4.1 GAF⁃iEfficientNetV2与主流研究方法对比

选择轻量级模型MobileNetV2和ShuffleNetV2,以及大模型ResNet18(网络深度为18层)和VGG16(16层隐藏层)做对比实验。各个模型在测试集上的准确率变化如图18所示,GAF-MobileNetV2、GAF-ShuffleNetV2、GAF-ResNet18、GAF-VGG16的准确率分别为95.60%、94.41%、95.09%、95.77%,而GAF-iEfficientNetV2的准确率达到了97.95%,表明GAF-iEfficientNetV2实现了更高的准确率,改进后的模型能在训练中快速收敛并趋于稳定。

各个模型在测试集上的准确率、精确率、召回率和F1分数的具体数据如表3所示,GAF-iEfficientNetV2的ACCPRF1值比GAF-ResNet18分别高出2.86%、2.88%、2.86%和2.87%,比GAF-VGG16分别高出2.18%、2.2%、2.18%和2.19%,比GAF-ShuffleNetV2分别高出3.54%、3.5%、3.54%和3.52%,比GAF-MobileNetV2分别高出2.35%、2.37%、2.35%和2.36%,而GAF-iEfficientNetV2则取得最高准确率97.95%、最高精确率97.96%、最高召回率97.95%、最高F1分数97.96%。

3.4.2 UNetTSF与主流研究方法对比

选择时序领域预测表现较好的双向长短期记忆神经网络(BiLSTM)、时域卷积网络(TCN)以及支持向量回归(SVR)做对比实验。对比模型在稳定磨损和加速磨损阶段的预测结果分别如图19图20所示。从图中可以看出,所提出的UNetTSF方法在稳定磨损和加速磨损阶段的预测值都能更好地拟合刀具磨损的真实曲线。

稳定磨损阶段和严重磨损阶段各模型在测试集上的RMSE、MAE、MAPE和R2的性能比较结果见表4表5

在稳定磨损阶段,UNetTSF的RMSE为1.26,MAE为0.54,均低于其他模型,表明UNetTSF在预测精度上有明显的优势。此外,UNetTSF的R2值为0.95,接近完美拟合,远高于其他模型,进一步证实了其在捕捉数据变化趋势和预测稳定性方面的优越性。然而在加速磨损阶段,虽然UNetTSF的RMSE和MAE仍然保持较低水平,分别为1.25和0.54,但其MAPE略升至6.10%。尽管如此,UNetTSF在加速磨损阶段的性能仍优于其他模型,尤其是与SVR模型相比,后者的RMSE和MAE相较稳定磨损阶段分别上升了0.32和0.37。

综合两个阶段的实验结果,UNetTSF模型在刀具磨损值预测任务中表现出了较高的鲁棒性和适应性,无论是在稳定磨损还是加速磨损阶段,都能提供较为准确的预测结果。

4 结论与展望

本文构建了GAF-iEfficientNetV2-UNetTSF刀具磨损状态监测模型。该模型的架构设计遵循了先分类后预测的策略:首先利用GAF-iEfficientNetV2模型对刀具磨损状态进行精确分类;随后针对加工过程中尤为关键的稳定磨损和加速磨损两个阶段,将相应的时序数据输入与磨损类别对应的UNetTSF模型中,以实现对刀具磨损值的高精度预测,并通过消融实验以及与主流研究方法进行对比,得出以下结论:

1)通过格拉姆角场对信号进行编码,保留了信号与时间的强关联性,并结合iEfficientNetV2快速收敛优势,进一步提高了数据泛化性能。

2)在原始数据到图像编码过程中,未涉及数据降噪或人工特征提取过程,从根本上杜绝了主观误差的引入,使该模型具备更好的鲁棒性。

3)在EfficientNetV2中引入SCConv和GAM,SCConv侧重于提高局部特征提取效率,而GAM侧重于全局信息捕捉,二者互为补充,实现对局部和全局信息的有效融合,提高了模型对复杂特征的提取能力。

4)UNetTSF通过时间序列FPN方法有效提取时间序列中的浅层和深层特征,并通过多步融合方法整合了较高深度的趋势特征,从而提高了预测的准确性。

5)实验结果表明,GAF- iEfficientNetV2刀具状态分类模型在准确率、精确率、召回率和F1分数等评价指标上均优于原模型以及其他主流网络模型。UNetTSF刀具磨损值预测模型在稳定和加速磨损阶段均展现出优越的性能,尤其在预测精度和泛化能力上优于其他模型。

6)本文采用先进行刀具磨损状态分类,再根据分类情况对更关注的类别进行刀具磨损值预测,可以确保模型在预测磨损值时专注于特定类别的特征,从而提高预测的准确性,同时对更关注的磨损类别,可以分配更多的资源进行深入分析和预测,有助于在计算资源有限的情况下,优先处理对生产影响最大的磨损状态。

7)本文所提出的方法虽已展现出显著的优势,但由于当前模型更注重预测精度的提高,在一定程度上牺牲了模型的部分响应速度,未来会成为模型优化的重要方向,以实现更高效的实时监测。此外,未来的研究将着重考虑变工况和变切削参数的加工条件,并将其作为提高模型适应性和泛化能力的重要研究方向。

参考文献

[1]

陈仁祥, 吴志元, 胡小林, . 深度特征联合匹配的不同刀具间磨损状态识别[J]. 仪器仪表学报202041(12): 138-145.

[2]

CHEN RenxiangWU ZhiyuanHU Xiaolinet al. Wear State Recognition for Different Tools Based on the Joint Matching of Depth Characteristics[J]. Chinese Journal of Scientific Instrument202041(12): 138-145.

[3]

尹晨, 周世超, 何建樑, . 基于多源同步信号与深度学习的刀具磨损在线识别方法[J]. 中国机械工程202132(20): 2482-2491.

[4]

YIN ChenZHOU ShichaoHE Jianlianget al. Tool Wear Online Recognition Method Based on Multi-source Synchronous Signals and Deep Learning[J]. China Mechanical Engineering202132(20): 2482-2491.

[5]

ZHOU YangLIU ChangfuYU Xinliet al. Tool Wear Mechanism, Monitoring and Remaining Useful Life (RUL) Technology Based on Big Data: a Review[J]. SN Applied Sciences20224(8): 232.

[6]

MARTÍNEZ-ARELLANO GTERRAZAS GRATCHEV S. Tool Wear Classification Using Time Series Imaging and Deep Learning[J]. The International Journal of Advanced Manufacturing Technology2019104(9): 3647-3662.

[7]

YANG YinfeiGUO YuelongHUANG Zhipinget al. Research on the Milling Tool Wear and Life Prediction by Establishing an Integrated Predictive Model[J]. Measurement2019145: 178-189.

[8]

LIU MinYAO XifanZHANG Jianminget al. Multi-sensor Data Fusion for Remaining Useful Life Prediction of Machining Tools by IABC-BPNN in Dry Milling Operations[J]. Sensors202020(17): 4657.

[9]

BERGS THOLST CGUPTA Pet al. Digital Image Processing with Deep Learning for Automated Cutting Tool Wear Detection[J]. Procedia Manufacturing202048: 947-958.

[10]

林晨. 基于目标检测与语义分割的立铣刀磨损状态检测方法[D]. 杭州:杭州电子科技大学, 2024.

[11]

LIN Chen. Method for End Mill Wear Status Detection Based on Object Detection and Semantic Segmentation[D]. Hangzhou: Hangzhou Dianzi University, 2024.

[12]

滕瑞, 黄海松, 杨凯, . 基于图像编码技术和卷积神经网络的刀具磨损值在线监测方法[J]. 计算机集成制造系统202228(4): 1042-1051.

[13]

TENG RuiHUANG HaisongYANG Kaiet al. On-line Monitoring Method for Tool Wear Based on Image Coding Technology and Convolutional Neural Network[J]. Computer Integrated Manufacturing Systems202228(4): 1042-1051.

[14]

梁军华. 镍基高温合金切削过程中刀具磨损及其状态监测技术研究[D]. 成都: 西南交通大学, 2022.

[15]

LIANG Junhua. Research on Tool Wear and Its Condition Monitoring Technology during the Cutting of Nickel-based Superalloys[D]. Chengdu: Southwest Jiaotong University, 2022.

[16]

LI ChuXIAO BingjiaYUAN Qingping. UnetTSF: a Better Performance Linear Complexity Time Series Prediction Model[EB/OL]. [2024-09-19].

[17]

孙皓章, 孔繁星, 陈娜, . 基于GAF-CNN的刀具磨损程度识别研究[J]. 机械工程师2023(8): 7-10.

[18]

SUN HaozhangKONG FanxingCHEN Naet al. Research on Recognition of Tool Wear Degree Based on GAF-CNN[J]. Mechanical Engineer2023(8): 7-10.

[19]

PARK SPARK Y H, HUH J, et al. Deep Learning Model for Differentiating Acute Myeloid and Lymphoblastic Leukemia in Peripheral Blood Cell Images via Myeloblast and Lymphoblast Classification[J]. Digit Health202410:20552076241258079.

[20]

DENG LiweiSUO HongfeiLI Dongjie. Deepfake Video Detection Based on EfficientNet-V2 Network[J]. Computational Intelligence and Neuroscience20222022(1): 3441549.

[21]

LI JiafengWEN YingHE Lianghua. SCConv: Spatial and Channel Reconstruction Convolution for Feature Redundancy[C]∥2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Vancouver, 2023: 6153-6162.

[22]

ZHAO SongCAI TaiweiPENG Baoet al. GAM-YOLOv8n: Enhanced Feature Extraction and Difficult Example Learning for Site Distribution Box Door Status Detection[J]. Wireless Networks202430(8): 6939-6950.

[23]

KOU RuiLIAN ShiweiXIE Nanet al. Image-based Tool Condition Monitoring Based on Convolution Neural Network in Turning Process[J]. The International Journal of Advanced Manufacturing Technology2022119(5): 3279-3291.

[24]

龙佳宁, 张昭, 刘晓航, . 利用改进EfficientNetV2和无人机图像检测小麦倒伏类型[J]. 智慧农业(中英文)20235(3): 62-74.

[25]

LONG JianingZHANG ZhaoLIU Xiaohanget al. Wheat Lodging Types Detection Based on UAV Image Using Improved EfficientNetV2[J]. Smart Agriculture20235(3): 62-74.

[26]

YANG RuiLU XiangyuHUANG Jinget al. A Multi-source Data Fusion Decision-making Method for Disease and Pest Detection of Grape Foliage Based on ShuffleNet V2[J]. Remote Sensing202113(24): 5102.

基金资助

国家自然科学基金(51205243)

AI Summary AI Mindmap
PDF (5178KB)

7

访问

0

被引

详细

导航
相关文章

AI思维导图

/