基于空间注意力机制U-Net的铣刀磨损在位监测方法

张松, 张超勇, 朱传军, 赛希亚拉图

中国机械工程 ›› 2025, Vol. 36 ›› Issue (11) : 2720 -2727.

PDF (2797KB)
中国机械工程 ›› 2025, Vol. 36 ›› Issue (11) : 2720 -2727. DOI: 10.3969/j.issn.1004-132X.2025.11.030
智能制造

基于空间注意力机制U-Net的铣刀磨损在位监测方法

    张松1, 张超勇1, 2, 朱传军1, 赛希亚拉图2
作者信息 +

In-situ Monitoring Method of Milling Cutter Wear Based on Spatial Attention Mechanism U-Net

    Song ZHANG1, Chaoyong ZHANG1, 2, Chuanjun ZHU1, Saixiyalatu BAO2
Author information +
文章历史 +
PDF (2863K)

摘要

针对目前基于机器视觉刀具磨损离线测量工作量大、准确度差的问题,提出一种基于空间注意力机制U-Net的加工中心铣刀磨损在位监测方法。首先,搭建了刀具磨损量自动监测实验平台,该平台通过PMC编程,使用NC代码控制主轴定向和旋转角度,实现对铣刀侧刃磨损区域的自动定位;其次,通过Focas协议和C#脚本与机床通信,实现铣刀底刃和每个侧刃的自动在位拍摄;然后,通过LabelMe软件制作标签文件,采用空间注意力机制U-Net语义分割方法精确识别磨损区域,结合形态学方法计算获得量化的刀具磨损值;最后,将提出模型与Deeplabv3+、全卷积网络(FCN)、Lraspp、SegNet、PspNet等语义分割模型对比,验证所提方法的有效性和准确性。

Abstract

To address the issues of high workload and low accuracy in existing machine vision-based off-line tool wear measurement, an in-situ monitoring method for milling tool wear in machining centers was proposed based on a spatial attention mechanism U-Net. Firstly, an automatic tool wear monitoring experimental platform was established. Through PMC programming, the platform employed NC codes to control spindle orientation and rotation angles, enabling automatic positioning of the wear areas on the lateral cutting edges of the milling cutters. Secondly, communication with the machine tool through the Focas protocol and C# scripts, automatic in-situ imaging of the milling cutter's bottom edge and each lateral edge were realized. Next, label files were created by using LabelMe software, the spatial attention mechanism U-Net semantic segmentation method was employed to accurately identify the wear areas, and the quantifiable tool wear values were obtained by combining the morphological method. Finally, the proposed model was compared with semantic segmentation models such as Deeplabv3+, full convolutional networks(FCN), Lraspp, SegNet, and PspNet to verify the effectiveness and accuracy of the proposed method.

Graphical abstract

引用本文

引用格式 ▾
基于空间注意力机制U-Net的铣刀磨损在位监测方法[J]. 中国机械工程, 2025, 36(11): 2720-2727 DOI:10.3969/j.issn.1004-132X.2025.11.030

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

刀具是机械加工装备中至关重要的组成部分。相关研究表明,刀具磨损引起的停机时间约占机床总停机时间的25%1,因此,精确预测刀具磨损对提高机械加工企业的加工质量与生产效率、降低生产成本具有重要意义。随着我国制造业数字化和智能化转型的推进,刀具智能化监测已成为重要研究方向,既具理论价值,也有显著实践意义。

刀具磨损的监测方法主要分为直接法和间接法2。间接法通过采集切削力3、电流、振动4、声发射等信号来评估刀具磨损程度。然而,该方法容易受到干扰,且依赖于大量实验数据,从而使实验过程较为复杂、效率偏低。相比之下,直接法通过机器视觉技术对刀具磨损区域进行精确测量,能够提供更为直观和准确的结果,因此近年来被广泛应用于刀具磨损监测研究中。周俊杰等5基于机械视觉技术开展了钻头的在线刀具磨损测量。QIN等6提出一种基于动态图像序列的面铣刀磨损自动检测方法,可在主轴低速运转时完成刀具连续拍摄。程训等7通过设计传动系统使相机旋转拍摄刀具的4个侧刃。虽然这些方法都对刀具磨损的拍摄提出了建设性意见,但它们存在操作复杂、平台造价昂贵以及拍摄图像质量不稳定等问题。

在磨损图像处理方面,ZHANG等8采用亚像素边缘检测技术对刀具磨损边缘进行提取,进而获取刀具磨损参数。PENG等9通过预处理、阈值分割以及基于Canny算子和子像素的边缘检测方法,识别了磨损边界并计算出刀具磨损值。田颖等10提出一种组合阈值分割的刀具磨损测量方法用于提取磨损区域,并利用最小二乘法计算磨损参数。尽管这些研究在边缘提取精度提升和算法优化方面取得了一定进展,但由于磨损区域边缘模糊,很难确定合理的阈值,因此分割结果仍然存在一定的局限性。与传统算法相比,基于深度学习的语义分割模型可以自动学习图像的特征,进行端到端的分类学习11。BERGS等12通过训练全卷积网络(FCN),利用立铣刀、钻头和刀片等刀具的数据成功提取了刀具磨损区域。YU等13结合卷积块注意力模块(CBAM)、通道压缩与激励模块(cSE)以及空洞卷积模块(DCM)改进U-Net网络,精准地分割了混凝土建筑物和道路中的裂缝。由此可见,语义分割模型具有强大的分割能力和抗干扰能力,但其训练过程依赖于大规模的图像数据,对数据样本的获取带来了巨大挑战。

综上所述,现有刀具磨损监测方法具有以下问题:①监测系统自动化程度不高,即使实现自动化,拍摄图像的质量也难以保障;②传统基于阈值处理的图像分割方法精度较低,难以满足实际应用需求;③深度学习的语义分割模型对大规模高质量数据集的依赖性强,数据获取和标注面临巨大挑战。为此,本文提出一种基于空间注意力机制U-Net14-15的铣刀磨损在位监测方法,首先建立刀具磨损量监测实验平台,在线获取刀具磨损图像;然后使用空间注意力机制U-Net模型分割磨损区域;最后,在获得刀具磨损区域的基础上,利用形态学进一步计算获得量化的刀具磨损值。这些改进显著提升了监测系统的自动化、智能化与实用性,可为工业应用提供技术支撑。

1 刀具磨损监测实验平台

为获得刀具磨损图像,本文搭建了刀具磨损量在位监测平台,如图1所示。该平台采用宝鸡一机MLV600型号加工中心,配备四刃钨钢立铣刀,使用H13模具钢材质的工件开展切削实验。平台由两套4K CCD工业相机、环形光源和两台计算机组成。借助Focas通信协议建立机床与PC之间的通信,以获取机床的参数、状态等实时数据,结合C#脚本实现了刀具磨损图像的自动化获取。

1.1 工业相机选择

为获取立铣刀的4个侧刃和底刃图像,本研究采用了2套工业相机进行拍摄, 以确保能够全面、准确地采集刀具表面特征信息。拍摄刀具底刃时,由于底刃可近似视为平面,对景深要求低,因此选择了高清大视野镜头,并配备TD-KM-4KH型相机。拍摄刀具侧刃时,由于侧刃具有立体结构特性,对景深要求较高,因此选用具有大景深和宽视野的变焦镜头,并配备AO-HK810型相机。相机参数如表1所示。

1.2 刀具磨损图像自动化获取

两款相机均配备专用软件,支持通过快捷键方式实现拍照、存储和测量操作。在每次数据采集过程中,底刃仅需拍摄1张图像,而立铣刀由于具有4个侧刃,需要分别拍摄4张图像以覆盖所有刃面。为解决立铣刀4个侧刃的图像采集问题,本文基于FANUC数控机床的PMC编程,设计了M100指令用于控制主轴的旋转角度。在此基础上,采用M19主轴定向指令以固定第1个准确角度(M19指令中的主轴定向参数可通过机床参数进行调整)。随后,通过M100指令实现主轴旋转至特定角度,从而获得4个侧刃的图像。

为进一步提高刀具磨损量监测平台的自动化程度,本文采用FANUC系统的Focas协议与加工中心进行通信。图2展示了基于C#脚本编写的FANUC CNC系统实时监控画面。

PC通过读取机床工作状态(包括暂停、加工中、停机和初始化状态),利用C#脚本驱动相机配套软件进行自动化拍照。C#程序的运行逻辑如下:首先,NC代码控制工件加工,刀具经过预设次数的切削后到达拍照点,同时机床进行主轴定向操作;接着,通过执行M01命令暂停机床,当C#程序监测到机床处于暂停状态后,启动工业相机的配套软件并触发快捷键进行拍照操作;随后,通过M100C90命令使主轴旋转90°,再次利用M01命令暂停机床并拍照,以此循环完成主轴在0°、90°、180°和270°这4个角度的操作,从而依次获取刀具4个侧刃的正面磨损图像。该方法实现了机床自动加工与刀具磨损图像自动化采集,为后续U-Net刀具磨损分割模型提供了充足且高质量的数据支持。

1.3 刀具磨损程度的评估标准

本文采用70HRC四刃钨钢立铣刀开展实验,如图3所示。在立铣刀的加工过程中,刀具的磨损主要集中在前刀面和后刀面,且后刀面磨损尤为显著,这成为影响刀具寿命的重要因素。

在切削过程中,刀具后刀面与工件表面之间的摩擦会导致材料逐渐产生磨损,形成明显的磨损痕迹。随着磨损程度的加剧,刀具与工件之间的摩擦力随之增大,从而导致切削力增大和切削温度升高。这不仅会显著降低加工效率,还会对加工表面的质量产生负面影响。后刀面磨损程度通常由后刀具磨损宽度VB值VB表示。根据国际标准ISO规定,在粗加工过程中,平均磨损宽度VBa>0.3 mm或最大磨损宽度VBm>0.5 mm时,刀具被认定为失效。

2 刀具磨损图像处理

通过前一节实现的自动化拍照获取刀具磨损图像,并对其进行处理。利用注意力机制的U-Net模型对图像进行分割,提取刀具磨损区域,并通过形态学方法进一步计算磨损宽度,其具体流程如图4所示。

2.1 空间注意力机制U-Net网络

U-Net是一种专为生物医学图像分割设计的卷积神经网络(CNN)架构。该网络通过融合传统卷积网络在特征提取方面的优势与全连接网络在高效预测方面的能力,显著提高了分割任务中边界定位的精度。U-Net结构呈对称形状,类似字母“U”,主要由编码器(下采样路径)和解码器(上采样路径)两部分组成。得益于其优秀的图像分割能力,本文将U-Net模型应用于铣刀磨损区域的分割任务,并结合空间注意力机制,以进一步提高分割精度和模型性能,同时增强了模型的泛化能力。U-Net模型结构如图5所示。

在编码器部分采用VGG16架构。VGG16是一种经典的卷积神经网络架构,通过堆叠多个卷积层和ReLU激活函数,卷积组之间通过最大池化层实现下采样,最终依靠全局平均池化和全连接层完成分类任务。该架构设计简洁高效,所有卷积核均为3×3,结构统一且易于实现,具有卓越的特征提取能力,因此广泛应用于图像分类和识别等任务。在本研究中,VGG16架构经过修改去除了平均池化层和全连接层,仅保留有助于特征提取的卷积层。通过这一改进,网络能够提取5个不同阶段的特征图,这些特征图为后续的图像分割任务提供了丰富的特征支持。

此外,本文在U-Net的跳跃连接部分引入空间注意力机制。通过全局池化和卷积操作生成注意力权重图,以突出关键区域的特征,从而帮助模型更好地聚焦于图像中的重要细节,尤其是在边界模糊的情况下有效提高了分割精度。空间注意力机制具体结构如图6所示,其中CHW分别为通道数、特征图高度和特征图宽度。

在解码器部分,首先通过双线性插值进行上采样,逐步恢复特征图的空间分辨率;随后,采用跳跃连接将编码器中的特征图与经过空间注意力机制处理的特征图进行拼接,拼接后的特征图经过一系列卷积用来进一步提取高层语义特征,并恢复图像的空间结构;最后,使用1×1卷积层对上采样后的特征图进行处理,生成最终的分割结果,并完成磨损区域的精确分割。

2.2 磨损区域测量

本文采用图像处理和几何形态学计算方法提取铣刀磨损区域的侧刃边线。使用LabelMe工具手动标注铣刀的侧刃边线,并计算侧刃边线与x轴夹角。根据该角度绘制初始侧刃边线于磨损图上。为精确提取磨损区域的边界,通过平移初始侧刃边线并在磨损区域内查找与之重合的像素点。在平移像素的过程中,若平移后的刀刃线与至少50个连续像素点重合,则认定为有效侧刃边线。该方法有效降低了计算复杂度,并提高了侧刃边线提取的精度。图7展示了提取的侧刃边线。

确定边缘线后,计算磨损区域像素点到侧刃边线的垂直距离。由于已知侧刃边线和像素点的坐标,设侧刃边线的两个端点坐标为A(x1,y1)B(x2,y2),则横向增量Δx=x2-x1,纵向增量Δy=y2-y1,待计算的磨损区域像素点为 P(x0,y0)。由此可以得到点到侧刃边线距离:

L=x(x0-x1)+y(y0-y1)(x)2+(y)2

接着,遍历磨损区域内所有像素点的坐标,比较每个像素点到侧刃边线的垂直距离L,最终得到最大磨损距离。该最大磨损距离为像素值,因此需要将其转换为实际的长度尺寸。通过对截取区域的像素宽度p与实际物理长度d进行比对,可以计算得到每个像素所代表的实际物理尺寸。像素当量计算公式如下:

λ=d/p

本文所用相机拍摄出的图像分辨率为3840 piexl×2160 piexl,截取3072 piexl宽度的图像,测得此宽度的实际长度为7.784 169 mm。由此计算得出像素当量为0.002 53 mm/pixel。通过结合形态学计算获取磨损量的像素数,可以进一步计算出实际的刀具磨损量。

3 刀具磨损分割与性能分析

3.1 实验设计

本研究搭建的刀具磨损量在位监测平台如图1所示,实验使用的加工中心机床为宝鸡一机MLV600。本次实验的切削参数与实验条件如表2所示。实验过程中共进行了420次走刀,拍摄了1680张侧刃图像。剔除磨损效果不明显和后期磨损过大的图片,余下1586张。使用LabelMe工具对每一张图像进行人工标注,并标记出磨损区域。随后,将原始图像及其标签图像整理为VOC格式,并将这些图像按1337∶149∶100的比例划分为训练集、验证集和测试集。其中,训练集用于训练U-Net分割模型,验证集用于评估U-Net模型的分割性能,测试集用于评估基于U-Net分割模型的磨损测量方法的准确性。

3.2 评价指标

为评估模型的分割精度,本文使用了多个评价指标,包括平均交并比(mean intersection over union,mIoU)RmIoU、类比平均像素准确率(mean pixel accuracy,mPA)RmPA、准确率RA和召回率RR

mIoU是语义分割任务中常用的评价指标,用于衡量模型预测结果与真实标签之间的重叠程度。对于每个类别,计算预测标签和真实标签的交集与并集的比值(IoU),并对所有类别的IoU取平均,其计算表达式如下:

RmIoU=RIoUC
RIoU=NTPNTP+NFP+NFN

对于每个类别,计算其像素准确率。RmPA表示模型在各类别上平均正确预测的像素占该类别总像素的比例,其计算表达式如下:

RmPA=RPC
RP=NTPNTP+NFP

RA主要用于衡量分类模型的整体性能。它表示模型正确预测的样本占所有样本的比例,其计算表达式如下:

RA=NTP+NTNNTP+NFN+NTN+NFP

RR是评估分类模型性能的关键指标,尤其在类别不平衡的情况下。它表示模型正确预测的正类样本占所有实际正类样本的比例,其计算表达式如下:

RR=NTPNTP+NFN

式中:C为类别数;RIoU为交并比;NTPNFPNTNNFN分别为真正样本数、假正样本数、真负样本数和假负样本数;RP为精确率。

3.3 实验结果分析

3.3.1 模型训练

注意力机制U-Net架构如图5所示,模型在GPU上进行训练,以3.1节中所提方法对数据集进行划分,数据集为3.1节中自制的VOC格式的数据集,所有图像大小均调整为512×512。训练总轮数(Epoch)设置为100次,优化器选用Adam,初始学习率为10-4,并采用余弦退火策略动态调整学习率。在训练过程中,将主干网络先进行冻结,再进行解冻,冻结时批处理尺寸(Freeze_batch_size)为2,解冻时批处理尺寸(Unfreeze_batch_size)为2。训练结果如图8所示。训练集和验证集的损失值分别降至0.025和0.026,表明模型在训练过程中收敛较快,且具有较好的拟合能力。最后一轮的平均交并比RmIoU达到了95.186%,表明模型在分割任务中表现优异。

为了验证注意力机制U-Net模型的有效性,本文在验证集的149个样本上评估了模型表现,结果如图9所示。可以看出,mIoU、mPA和RA分别达到95.94%、97.97%、99.89%,进一步证明了U-Net模型在磨损区域分割任务中的高精度和可靠性。

注意力机制U-Net模型的分割结果如图10所示,磨损区域以白色区域覆盖。由图10可以看出,识别出的磨损区域与真实磨损区域几乎完全吻合。图10a~图10c分别展示了铣刀磨损的不同阶段:初期磨损阶段、稳定磨损阶段和剧烈磨损阶段。可见,U-Net分割模型能够有效地适应不同磨损阶段的特征变化。

为了验证2.2节所述磨损量测量方法的有效性,本研究在测试集上对基于注意力机制U-Net模型的磨损量计算结果与相机配套软件的测量结果进行了对比,具体结果如图11所示,其中三组对比图像分别对应刀具磨损的初期、中期和后期,图11a~图11c所示为相机配套软件的测量结果,图11d~图11f所示为通过U-Net分割图像后自主计算的结果。研究结果表明,基于注意力机制U-Net模型的磨损量计算结果与实际测量值之间的平均误差小于0.5%,验证了注意力机制U-Net分割模型在刀具磨损监测方面具有极高的准确性和可靠性。

3.3.2 模型对比

为验证空间注意力机制U-Net模型的优越性,将其与Deeplabv3+、FCN、Lraspp、SegNet、PspNet等先进模型进行对比。所有模型均在相同的数据集和训练条件下进行训练。实验结果如表3所示。

研究结果表明,所提出的模型在mIoU、mPA、RARR这4个评价指标上均取得最佳性能,分别达到95.94%、97.97%、99.89%和95.99%。与原U-Net模型、Deeplabv3+、FCN、Lraspp、SegNet、PspNet等分割模型相比,本文模型的所有评价指标均有提升。具体来说,mIoU分别提高了0.72%、4.89%、8.12%、18.25%、2.17%和5.66%;mPA分别提高了0.49%、2.30%、1.96%、7.75%、1.25%和3.70%;RA分别提高了0.01%、0.13%、0.15%、0.48%、0.05%和0.15%;RR分别提高了0.96%、4.52%、14.86%、31.49%、2.47%和7.33%。上述结果表明,本文提出的基于注意力机制的U-Net模型在刀具磨损区域分割任务实现了显著的性能提升,相较于其他方法,表现出了更强的分割能力和更高的准确性。

对于测试集的图像,注意力机制U-Net(即改进U-Net)、Deeplabv3+、FCN、Lraspp、SegNet、PspNet这6种模型的分割结果如图12所示。从结果中可以直观看出注意力机制U-Net模型在边缘处理上表现得尤为平滑,分割结果与原图磨损区域几乎一致。相比之下,Deeplabv3+、FCN、Lraspp、SegNet和PspNet模型在刀具磨损初期时均存在一定程度的误检或漏检问题,且在磨损中期和后期的预测中边缘处理的准确性也有所不足。其中Lraspp表现最为明显,在磨损中期和后期的图片中出现了明显的漏检现象。尽管SegNet在漏检方面表现相对较好,但其预测的磨损区域边缘较为粗糙,缺乏平滑度。综合来看,注意力机制的 U-Net 网络在刀具磨损区域的分割任务中表现更为出色,其分割精度和边缘处理能力均优于其他分割网络。

4 结论

1)本次实验在数据获取环节通过精确控制主轴旋转角度,实现了铣刀多角度的自动化拍照。结合FANUC系统的Focas协议和C#脚本完成了机床状态监控与工业相机的自动化操作,成功采集到刀具4个侧刃的高质量图像数据。该方法显著提高了数据采集效率,为基于U-Net的刀具磨损分割模型提供了可靠的数据支持。

2)利用LabelMe标注软件对磨损区域进行人工标注后,应用注意力机制U-Net分割模型进行磨损区域的精确分割,并将该模型与Deeplabv3+、FCN、Lraspp、SegNet、PspNet等5种主流语义分割算法进行对比。实验结果表明,注意力机制U-Net分割模型在平均交并比(mIoU)、类比平均像素准确率(mPA)、准确率和召回率等评价指标上均表现出显著优势,分割结果更加准确,显示了该算法在刀具磨损分割任务中的优越性。

3)通过结合C#软件与注意力机制U-Net分割模型,本文实现了刀具磨损监测的自动化和智能化。该方法不仅大幅提高了磨损区域的识别和计算精度,还有效满足了语义分割算法对大规模数据的需求,为实验室环境与工业应用场景下的刀具磨损自动监测提供了技术支持。同时,该方法显著缩短了实验时间,极大提高了数据采集效率,为构建大规模磨损图像数据集奠定了基础。

在本文刀具磨损自动化在位监测方法基础上,未来可在实验平台中引入振动、切削力及声发射传感器以融合多源信息,进一步提高磨损预测模型的精度与泛化能力,从而推动刀具磨损监测技术的持续发展和实际应用。

参考文献

[1]

刘会永, 张松, 李剑峰,. 采用改进CNN-BiLSTM模型的刀具磨损状态监测[J]. 中国机械工程202233(16): 1940-1947.

[2]

LIU HuiyongZHANG SongLI Jianfenget al. Tool Wear Detection Based on Improved CNN-BiLSTM Model[J]. China Mechanical Engineering202233(16): 1940-1947.

[3]

聂鹏,杨程越,彭新月,.采用空间和通道激励注意力机制优化ResNet-50的CFRP/TC4叠层材料钻削刀具磨损状态监测[J].中国机械工程202435(10):1793-1801.

[4]

NIE PengYANG ChengyuePENG Xinyueet al. Tool Wear Condition Monitoring for Drilling CFRP/TC4 Laminated Materials Using scSE Optimised ResNet-50[J]. China Mechanical Engineering202435(10): 1793-1801.

[5]

JÁUREGUI J CRESÉNDIZ J RTHENOZHI Set al. Frequency and Time-frequency Analysis of Cutting Force and Vibration Signals for Tool Condition Monitoring[J]. IEEE Access20186: 6400-6410.

[6]

王秋莲,欧桂雄,徐雪娇,.基于VMD-SSA-LSTM考虑刀具磨损的数控铣床切削功率预测模型研究[J].中国机械工程202435(6):1052-1063.

[7]

WANG QiulianGuixiong OUXU Xuejiaoet al. Research on Cutting Power Prediction Model of CNC Milling Machine Considering Tool Wear Based on VMD-SSA-LSTM[J]. China Mechanical Engineering202435(6): 1052-1063.

[8]

周俊杰,余建波.基于机器视觉的加工刀具磨损量在线测量[J].上海交通大学学报202155(6):741-749.

[9]

ZHOU JunjieYU Jianbo. Online Measurement of Machining Tool Wear Based on Machine Vision[J]. Journal of Shanghai Jiao Tong University202155(6): 741-749.

[10]

QIN AGUO LYOU Zet al. Research on Automatic Monitoring Method of Face Milling Cutter Wear Based on Dynamic Image Sequence[J].The International Journal of Advanced Manufacturing Technology2020110(11/12):3365-3376.

[11]

程训, 余建波. 基于机器视觉的加工刀具磨损监测方法[J]. 浙江大学学报 (工学版)202155(5): 896-904.

[12]

CHENG XunYU Jianbo. Tool Wear Monitoring Method for Machining Based on Machine Vision[J]. Journal of Zhejiang University(Engineering Science)202155(5): 896-904.

[13]

ZHANG JZHANG CGUO Set al. Research on Tool Wear Detection Based on Machine Vision in End Milling Process[J]. Production Engineering20126: 431-437.

[14]

PENG RPANG HJIANG Het al. Study of Tool Wear Monitoring Using Machine Vision[J]. Automatic Control and Computer Sciences202054(3): 259-270.

[15]

田颖, 杨利明. 基于组合型阈值分割的在线立铣刀侧刃磨损测量[J]. 天津大学学报 (自然科学与工程技术版)202356(1): 81-92.

[16]

TIAN YingYANG Liming. Online Measurement of Flank Wear of End Mills Based on Combined Threshold Segmentation[J]. Journal of Tianjin University(Science and Technology)202356(1): 81-92.

[17]

何彦,凌俊杰,王禹林,.基于长短时记忆卷积神经网络的刀具磨损在线监测模型[J].中国机械工程202031(16):1959-1967.

[18]

HE YanLING JunjieWANG Yulinet al. Online Monitoring Model of Tool Wear Based on Long Short-term Memory Convolutional Neural Network[J]. China Mechanical Engineering202031(16): 1959-1967.

[19]

BERGS THOLST CGUPTA Pet al.Digital Image Processing with Deep Learning for Automated Cutting Tool Wear Detection[J].Procedia Manufacturing202048: 947-958.

[20]

YU YZHANG YYU Jet al.Lightweight Decoder U-net Crack Segmentation Network Based on Depthwise Separable Convolution[J].Multimedia Systems202430(5):295-295.

[21]

RONNEBERGER OFISCHER PBROX T. U-net: Convolutional Networks for Biomedical Image Segmentation[C]∥Medical Image Computing and Computer-assisted Intervention. Cham: Springer International Publishing, 2015: 234-241.

[22]

SUN YGENG SGUO Het al. A Strip Steel Surface Defect Salient Object Detection Based on Channel, Spatial and Self-attention Mechanisms[J]. Electronics202413(21): 4277.

AI Summary AI Mindmap
PDF (2797KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/