一种自适应目标区域提取的小样本丝印字符缺陷检测方法

胡新宇 ,  张骏巍 ,  艾佳 ,  李云翎 ,  严爽

中国机械工程 ›› 2025, Vol. 36 ›› Issue (12) : 2968 -2977.

PDF (3069KB)
中国机械工程 ›› 2025, Vol. 36 ›› Issue (12) : 2968 -2977. DOI: 10.3969/j.issn.1004-132X.2025.12.020
智能制造

一种自适应目标区域提取的小样本丝印字符缺陷检测方法

作者信息 +

A Small-sample Defect Detection Method for Screen-printed Characters with Adaptive Target Region Extraction

Author information +
文章历史 +
PDF (3141K)

摘要

针对因电子器件丝印字符材质反光引起分割精度差、检测图像位姿不确定难以自适应定位提取目标区域、缺陷检测目标小及样本少导致识别准确率低的问题,提出自适应目标区域提取的小样本丝印字符缺陷检测方法。设计基于大津阈值法的自适应二次阈值分割算法,减少反光材质表面光亮目标区域信息损失,实现光照不均匀图像的准确分割;提出自适应目标区域定位提取与角度矫正算法,解决因字符大小及位姿变化难以实现自适应目标区域的精确定位与提取问题;研究了缺陷检测目标初识别、置信度低小目标字符二次精识别方法,实现了小目标、少样本缺陷检测目标的准确识别。实验结果表明:二次阈值分割算法能够实现光照不均字符图像的准确分割,自适应目标区域定位与角度矫正准确率达99.5%,轻量化深度学习模型的字符分类识别率达99.1%,字符缺陷检测准确率达98.6%,检测速度为0.083 s/张,满足工业生产中在线检测精度与速度的需求。

Abstract

The defect detection of screen-printed characters on electronic devices faced problems such as poor segmentation accuracy caused by reflective materials, difficulty in adaptively locating and extracting target regions due to uncertain image poses, and low recognition accuracy caused by small defect detection targets and insufficient samples, an adaptive target region extraction method for few-shot screen-printed character defect detection was proposed. Based on OTSU method an adaptive dual-threshold segmentation algorithm was designed to reduce information loss in bright target regions on reflective material surfaces, achieving accurate segmentation of images with uneven illumination. An adaptive target region localization, extraction, and angle correction algorithm was proposed to solve the problems of precisely locating and extracting adaptive target regions despite variations in character sizes and poses. A method involving preliminary defect target recognition and secondary fine recognition for low-confidence small target characters was studied, achieving accurate recognition for small-target, few-sample defect detection targets. Experimental results demonstrate that: the dual-threshold segmentation algorithm achieves accurate segmentation of character images under uneven illumination; the accuracy of adaptive target region localization and angle correction reaches 99.5%; the character classification recognition rate of the lightweight deep learning model reaches 99.1%; the character defect detection accuracy reaches 98.6%; and the detection speed is as 0.083 seconds per image. These results meet the requirements for both of precision and speed in industrial online detections.

Graphical abstract

关键词

缺陷检测 / 丝网印刷 / 光照不均匀 / 位姿不确定 / 小样本识别

Key words

defect detection / screen printing / non-uniform lighting / pose variation / small sample recognition

引用本文

引用格式 ▾
胡新宇,张骏巍,艾佳,李云翎,严爽. 一种自适应目标区域提取的小样本丝印字符缺陷检测方法[J]. 中国机械工程, 2025, 36(12): 2968-2977 DOI:10.3969/j.issn.1004-132X.2025.12.020

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

丝网印刷因成本低廉、工艺简单且对表面材质要求不高等优点广泛应用于电器件的金属、玻璃等反光材质面的字符印刷中,丝印字符缺陷检测是电子器件质量检测的重要环节,对提高产品质量、减少返工率和降低生产成本具有重要意义1-2。随着自动化产线升级、印刷工艺和产品材料的发展,工业生产中采集的图像存在位姿不确定和光照不均匀的问题,同时字符缺陷趋于更加微小且缺陷样本数量不足,严重影响了丝印字符缺陷检测系统的识别精度,因此,迫切需要开发一套高效且精确的丝印字符质量检测系统。

字符印刷时易出现漏印、重影、色差等缺陷3,但目前丝印字符的质量检测主要依靠人眼和传统视觉算法检测。人眼检测因检测精度与速度原因,工业生产中已很少采用;而传统视觉检测算法通常采用模板匹配方法,其原理简单且具有较强的鲁棒性,广泛应用于工业产品质量的缺陷检测4。基于特征的模板匹配方法主要有基于灰度特征和基于形状特征两种。其中基于灰度特征匹配方法检测精度高,BROWN5提出的平均绝对值方法提高了算法精度但增加了计算量,导致运算速度与抗干扰性能降低。ZITOVA等6提出一种归一化匹配法,提高了算法的抗干扰能力,但增加了算法对光照的敏感度。而LOWE7提出的基于角点检测的方法具有精度高、抗干扰能力强的优点8,但在检测目标图像位姿不确定、反光材质光照不均工况下,存在检测精度不够且难以兼顾识别精度与效率的问题。

近年来,随着GPU等硬件的发展,深度学习开始应用于缺陷检测中,其中一阶段算法与二阶段算法被广泛应用。二阶段目标检测算法主要包括R-CNN(区域卷积神经网络)、Fast R-CNN等,通过利用区域提取网络生成系列候选区域,并对候选区域进行分类和边界框回归。二阶段算法虽具有较高的检测精度,但模型训练需大量的样本数据。相较之下,一阶段算法,如YOLO系列、R-Net和SSD9等方法,则直接在网络中同时预测类别和边界框位置,无需单独生成候选区域,在模型训练中需要的样本数据量少且具有较高的检测效率。然而由于字符目标缺陷微小且缺陷样本数量有限,深度学习模型的计算结果难以满足检测精度的要求10,因此,针对丝印字符缺陷检测目标小及样本少的情况,采用较小训练模型的一阶段算法难以满足工业应用检测精度的实际需求11

综上所述,为解决电子器件丝印字符缺陷检测中,光照不均引起分割精度差、位姿不确定难以实现目标区域的定位提取、缺陷目标小且样本数量少导致识别准确率低的问题,提出一种自适应目标区域提取的小样本丝印字符缺陷检测方法。该方法采用自适应二次阈值分割算法实现图像的准确分割,解决光照不均引起图像分割精度的问题;采用自适应目标区域定位提取与角度矫正算法,实现了位姿不确定目标区域的精确定位;基于深度学习的缺陷检测初识别算法,对置信度低的小目标缺陷字符采用二次精确识别方法,实现了小目标、少样本缺陷字符的快速、准确识别检测。

1 系统总体方案设计

本文以平板电脑后盖丝印字符(丝印字符为其商标)缺陷检测为研究对象;以识别速度与准确率为性能指标,设计硬件及算法两部分。

1.1 硬件方案设计

在图像采集过程中,为保证商标被完整拍摄,采用光电开关与相机的连接并结合延时拍摄的方式进行图像采集,确保丝印字符能被完整拍摄的同时避免无效图像的采集,减少算法对CPU的占用,提高识别速度。

考虑到色差缺陷的影响,相机采用彩色相机,以提高缺陷识别的准确性。光源采用面光源,为保证相机位置可调,增加X-Y移动平台。视觉采集系统的三维建模如图1所示。

为采集小目标字符的高质量图像,相机选择MV-CS200-10GC海康面阵相机,分辨力为5472 pixel×3648 pixel,以保证丝印字符的细节信息不丢失。镜头选择与相机适配的MVL-KF1628M-12MPE,以满足小目标信息的采集需求。

针对反光材质可能导致的成像干扰,采用开孔直径为45 mm的圆孔面光源照亮平板后盖平面的打光方案,确保光照尽可能均匀且商标区域能够完整采集。

为确保X-Y移动平台能够稳定承载相机及其连接组件,平台尺寸选取40 mm × 40 mm,最大承载力为19.6 N(2 kgf),可满足大部分相机与镜头的承载需求。

工控机采用海康MV-VC2040-128G40-NN视觉控制器,处理器为英特尔J6412,显卡为集成显卡,可满足工业现场的稳定运行需求。

1.2 算法分析与设计

由以上分析可知,电器件丝印字符缺陷检测存在以下三个问题:①材质反光导致光照不均,影响图像分割精度;②字符位姿与大小不确定,影响定位准确性;③缺陷种类多、样本少及目标小,识别难度大。

针对上述问题,将算法流程(图2)分为三个阶段:预处理、定位与分割、缺陷识别(包括字符分类与初识别及缺陷算法精确识别)。首先设计了一种自适应二次阈值分割算法以解决光照不均匀影响图像分割精度的问题;然后提出一种自适应目标区域提取与角度矫正算法,以解决位姿不固定降低定位准确性的问题;最后采用一种基于深度学习的图像局部特征相似度对比的缺陷识别算法,实现字符分类与缺陷识别,以解决缺陷识别难度大的问题,并改进了YOLOv5s模型,加快了模型的识别速度与对目标的识别准确率。

2 图像获取与字符分割

2.1 不均匀光照的处理方法研究

图3所示为本次的检测对象,丝印字符为“Dolby Atmos”及三个自定义字符,其缺陷类型如图4所示,检测平台如图5所示。

在进行图像二值化分割前,为提高图像质量,采用高斯滤波对图像进行去噪处理,以增强图像的平滑性。由于采集的对象为金属材质,工业环境下易出现光照不均匀的现象,且目标区域较小,使用诸如大津阈值、自动阈值或固定阈值等传统二值化算法效果较差,易造成待提取区域的图像信息损失,影响后续的缺陷识别精度,因此,在定位目标区域前,需要先解决光照不均匀的问题。

2.1.1 基于大津阈值法的二值化分析

大津阈值法(OTSU)是一种由日本学者OTSU12提出的基于图像直方图特性的自动阈值二值化方法。该算法利用图像直方图的分布特性,将图像划分为前景和背景两部分,人眼主要依赖于像素值差异来区分这两部分,在直方图中通常表现为双峰特性。OTSU算法便是基于此特性分割图像,基本思路为:任意选取一阈值,将像素点分割为两部分,通过计算期望与概率,得到类间方差,计算最大类间方差得到的阈值T为图像的最终二值化阈值12。采用OTSU算法处理的结果与相机采集原图对比如图6所示。

可以看出OTSU算法结果损失了大量字符信息,这是由于图像存在光照不均匀,使得算法在分割过程中将前景与背景混淆,导致阈值选取偏差,因此,在光照不均匀的条件下,采用诸如OTSU的一次阈值二值化算法难以保证分割的准确性。

2.1.2 自适应二次阈值分割算法实现

由于采集的图像上存在多个高亮区域,使用一次阈值二值化会造成字符信息损失,故本文设计了一种基于OTSU的自适应二次阈值分割算法,其流程如图7所示。

该算法的基本思路为:将原图像坐标为(x,y)处的像素值设为g(x,y),处理后的图像像素值设为G(x,y),首先通过计算期望与概率值,得到类间方差,其中最大的类间方差可作为全局阈值T1。基于全局阈值T1将图像分割为前景与背景两部分,将原图像上大于T1的区域作为高亮区域(前景),对此部分再次进行像素值统计,得到灰度分布直方图,计算每个灰度级出现的概率,得到灰度级的累加均值。计算类间方差,得到在[0,255]中最大的类间方差对应的像素值T2。基于像素值T2对明亮区域的阈值进行二值化分割,并与第一次二值化的图进行叠加,得到算法处理结果如图6所示,实现了对光亮区域内目标信息的完整提取,减少了光照不均匀对分割结果的影响。

2.2 自适应目标区域提取与角度矫正方法研究

2.2.1 自适应目标区域定位

在工业产线上,由于平板的姿态、间距以及传送带速度难以保持恒定,因此使用固定位置方法来定位并分割目标区域并不可靠。而将目标字符作为整体进行定位可能会对后续的目标区域筛选带来困难,因此先采用形态学处理对图像进行预处理13。具体而言,对图像进行膨胀操作,使单个字符及字符间的区域形成连通区域。膨胀处理后,图像边缘可能会产生多余部分,因此需要进行腐蚀操作以去除这些多余部分。根据字符的实际尺寸,选取了4 pixel×50 pixel的卷积核。

使用findContours()函数识别处理后的图像边界,函数模式选择CV_RETR_EXTERNAL。然后对得到的点集合进行筛选,本文算法通过面积和长宽比两部分判断集合点,以增加目标区域的可信度。基本思路为:将目标区域的面积范围设为[A1,A2],长宽比范围设为[B1B2],输入图像的宽与高分别设为WH。通过统计多种平板丝印字符的大小,可得到面积与长宽比取值范围:A1=WH/300,A2=WH/200,B1=0.08,B2=0.75;二值化后的目标区域定位结果如图8所示。

2.2.2 模板旋转角度确定

由于平板的姿态不确定,提取出的目标区域角度也存在随机性,为精确定位,并减少角度对后续字符识别及缺陷识别算法的影响,需要确定目标区域图像的旋转角度并进行旋转纠正。待检测的目标字符处于同一水平线,在选取旋转角度时可将所有字符视为一个整体。

对于2.2.1节中定位完成的图片,选用1 piexl×50 piexl卷积核进行闭操作处理,将商标字符在x轴方向连通为整体,使用minAreaRect()函数将筛选出的目标点集合绘制出最小外接矩形。对于minAreaRect()函数绘制出的旋转矩形,角度θ的范围为[-90°,0°],如图9所示,函数以矩形最低点建立基准轴,将最低点右侧边与基准轴的夹角作为目标角度。

根据此项特性,在确定选择角度时,将目标矩形分为左边翘起与右边翘起两种情况,判断标准为wh大小,旋转角度α

α=θ                   w>h90°+θ       wh

旋转角度确定后可对原图像进行仿射变换。仿射变换需要一个变换矩阵,在已知原图像与目标图像上对应的RGB值的情况下创建出维度为2×3的变换矩阵 M

M=A    B=a00a01b00a10a11b102×3

根据变换矩阵 M,对原图像所有坐标点(x,y)作一次线性变换,可得到角度纠正后的图像坐标(u,v),变换关系为

uv=Axy+B

式(3)可转换原图像每一像素点的坐标,得到角度矫正后的图像,角度纠正后的图像见图10

2.2.3 基于灰度投影的字符分割

针对字符大小固定且不存在重叠的特点,选用灰度投影的方法进行字符分割,该算法相比于形态学分割只需遍历一次像素点,在提高分割速度的同时对断裂字符也具有一定的适应性。

1)垂直分割。由于字符的垂直长度并不相同,故无法先进行水平分割。为此,需要先将目标区域分割为单个字符,再切除单个字符中多余的区域,对目标区域进行垂直投影。从y轴方向的像素统计曲线(图11)中可以看出,曲线由数个独立的波形曲线组成,每个波形曲线都从x轴起并从x轴结束,这两个灰度值零点为分割线位置,两分割线之间的区域为需要提取的单个字符。

2)水平分割。单个字符分割完成后,为提高效率,不再统计x方向的像素点。根据图像字符的特点,选择从上下两边遍历图像像素值,找到图像中第一行和最后一行存在白色像素点的位置,保留两行之间的图像,去除边缘部分,完成水平分割。将两次分割叠加,得到分割完成的图像,如图12所示,可以看出,在光照不均且位姿不确定的情况下,提出的算法可以在不损失字符细节的同时,实现精确分割。

3 缺陷识别算法

3.1 基于深度学习的模型改进策略

工业生产中对算法的识别速度有一定的要求,因此本文选用一阶段检测算法中的YOLOv5算法14,YOLOv5网络由Backbone主干网络、Neck网络及Head预测头部三部分组成。本文拟对模型进行改进,提高识别速度及准确率。

3.1.1 基于YOLO模型的轻量化

网络的选择对模型的大小与识别精度和速度有一定的影响。考虑生产中对检测速度的要求,选取MobileNetV3-Small15轻量化网络架构对YOLOv5s进行轻量化处理,达到降参提速的目的,轻量化网络对比原有网络,加入了神经结构搜索,提高了识别正确率,降低了计算延时。

3.1.2 SE注意力机制的分析与改进

SE(squeeze-and-excitation)注意力机制16是一种常用的通道注意力机制,也被使用于MobileNetV3网络中,它通过独立的神经网络计算各个通道的重要程度。SE注意力机制分为三部分:Squeeze部分实现全局平均池化;Excitation部分将每个通道赋予一个权重值;Scale部分将权重归一化处理,并与原特征图进行相乘,获得最终加入注意力机制提取后的特征图,如图13所示。

从上述原理可以看出,SE在本次实验中存在以下不足:①SE注意力机制增加了网络的参数与计算量,降低了网络的反应速度;②模型对小目标区域的关注度低;③SE难以估计通道级的特征响应。

WANG等17在改进SE模块的基础上提出了ECA(efficient channel attention)模块。模块的核心思想是在卷积层之后引入通道注意力,以动态调整不同通道的响应。在全局平均池化中,与SE不同的是,ECA捕获通道中未降维的特征,并去除池化层后使用的全连接层,换为1×1的卷积核进行处理,避免了维度缩减,并有效捕获了跨通道交互,在减少模型参数的同时实现了更好的效果。ECA模块结构的如图14所示。

ECA在降低复杂度的同时,也带来了性能的提升,故本文将MobileNetV3-Small中的SE模块去除,并加入ECA模块,以提高模型的识别速度与正确率。

3.1.3 损失函数的改进

YOLOv5s的损失函数主要由目标位置损失、目标分类损失及区域目标损失三部分组成。目标位置损失利用真实框与预测框计算CIOU函数,导致目标检测时会产生大量先验框,其中包括大量的无效信息,使得正负信息不均衡。而模型使用二元交叉熵作为置信度与损失函数:

L=-ylgy'-(1-y)lg(1-y')=
-lgy'                     y=1-lg(1-y')        y=0

其中,L为交叉熵损失,正样本时y=1,负样本时y=0;y'为激活函数输出。可以看出,当正负样本数量差距过大,负样本数量过多时,会增加计算量,并降低检测精度,故需要进行改进。

在损失函数内部有三种不同的预测特征层:80 pixel×80pixel×256通道预测特征层,针对小目标检测;40 pixel×40 pixel×512通道预测特征层,针对中目标检测;20 pixel×20 pixel×1024通道预测特征层,针对大目标检测。函数内三种特征层的权重分配为

L=4.0L'+1.0L+0.4L

式中:L'表示小目标特征层;L表示中目标权重特征层;L表示大目标权重特征层。

为减小无效信息对精度的影响,需提高小目标的权重值,降低大目标的权重值。经实验验证,将三种特征层的权重调整为

L=7.5L'+1.8L+0.01L

改进后的模型YOLOv5s-MEF结构见图15

3.2 基于图像局部特征的精确缺陷识别算法

将置信度过低的字符当作缺陷字符并不可靠,如图16所示,样本中的缺陷字符“y”的置信度为0.86,但是同样存在置信度更低的非缺陷字符,比如字符“t”,即存在缺陷与非缺陷字符混淆的问题,故置信度过低的字符只能被标记为疑似缺陷字符,需要进行更为精确的相似度对比。

在相似度检测算法中,模板匹配是一种常用且较为可靠的匹配方法,但算法易受到光照变化、旋转缩放、纹理干扰等因素的影响,同时计算速度较慢18。本实验中的检测对象具有位姿和大小不固定、光照不均匀、字符内部缺陷微小且对检测速度有较高要求等特点。前文提到的处理方法已有效解决了光照不均匀与位姿不确定的问题,消除了模板匹配中的环境因素限制。此外,YOLOv5s-MEF模型已经实现了字符分类与缺陷的初步识别,模板匹配仅需应用存疑字符,缩短了匹配时间。但经实验验证,部分字符内部结构较为复杂,仅依赖模板匹配作为唯一判断标准并不可靠。为提高模型鲁棒性,并结合实验对象存在固定模板的特点,本文将感知哈希算法19与模板匹配方法并行应用于相似度计算。

感知哈希算法对标准化的丝印字符具有一定的适应性,因此可以实现图像相似度的计算。实验结果表明,两种方法并联计算图片相似度,提高了识别的准确性。

4 实验与结果分析

4.1 实验环境配置

实验搭建OpenCV+Qt深度学习平台,Qt界面如图17所示。训练所使用的计算机处理器为Intel(R) Core(TM) i5-12400F,显卡为NVIDIA GEFORCE RTX3060Ti,深度学习模型在PyTorch框架下构建,Python版本为3.8.5,OpenCV版本为4.3.0。其他训练参数为:输入图像尺寸640,遍历次数50,使用第一个NVIDIA GPU进行训练。

4.2 数据集的制作与增强

平板后盖的丝印字符不属于常用符号,无法使用公开数据集,故在工厂环境下使用海康相机采集图片并进行标注。常规采集的图片数量过少,为提高样本多样性,使用数据增强技术,对数据集进行扩充。为保证模型在样本少的情况下仍具有代表性,将每种图形的图像数量设置为900张,按照7∶1∶1的比例分为训练集、验证集、测试集进行模型训练,增强图实例如图18所示。

4.3 消融实验

为验证添加注意力机制及引进轻量化网络架构和改进损失函数对检测结果的影响程度,选择使用消融实验评估各模块在模型检测中的重要性。不同改进策略的实验安排如表1所示。

消融实验的结果如表2所示,实验共分为六组,记录了每组的帧率(FPS)、准确率、召回率及F1得分(准确率与召回率的调和平均值)。结果表明,MobileNetV3-Small轻量化网络的引入使平均帧率增大了11.15,但模型的准确度降低了0.9%。在添加注意力机制后,模型更加关注特征图中通道位置的特征信息,识别准确率提高了1.4%。在调整损失函数权重后,模型进一步关注图像中的小目标特征,识别准确率进一步提高,达到了99.1%,满足工业生产中的实时性需求。尽管引入ECA机制并调整损失函数后,平均识别帧率减小了3.68,但依然满足工业生产对实时性的要求。综上所述,三种优化策略对模型性能的提升均有效。

4.4 字符缺陷检测对比实验

为确保设计的算法能在计算资源较为有限的工业环境下进行实时检测,字符缺陷检测实验选用的主机为海康MV-VC2040-128G40-NN工控机,处理器为英特尔J6412,显卡为集成显卡。

4.4.1 不均匀光照下的位姿不确定字符分割实验

为验证前文所提出的改进二次阈值分割算法及目标区域定位与字符提取算法的可靠性,选取200张存在光照不均与字符歪斜情况的图像进行实验验证,其中包括100张无缺陷图像与100张缺陷图像。

实验结果表明,该算法分割准确率达到99.5%,平均检测时间为0.042 s/张。实验数据表明,所提算法实现了字符的准确提取,有效降低了光照不均与位姿不确定对后续缺陷识别的干扰。部分处理效果如图19所示。

4.4.2 字符缺陷识别实验

YOLOv5s模型识别后盖logo可能会存在漏检情况,经过多次的实验统计,模型漏检字符的概率低于0.5%,属于允许的误差范围,且图像的质量越好,平板后盖的磨损越小,漏检率越低。

实验测得,使用深度学习与精确缺陷识别算法结合的方法可以减少大量的缺陷检测工作量,提高检测效率。算法对缺损面积较大的缺陷较敏感,对微小缺陷及传统视觉识别算法难以检测的色差缺陷的识别准确率也大幅上升。检测结果如图20所示。

为了验证本文算法与基于深度学习的识别方法的性能差距,实验选用了100张图像,并对比了本文算法与改进版YOLOv5s模型的识别效果,对比结果如表3所示。

表3可以看出,YOLOv5s-MEF模型在平板后盖字符缺陷识别场景中的准确率较低,仅为73%,未能达到所要求的准确度。这是由于深度学习模型对缺陷字符的适应性较高,存在较大的误判可能性,单纯依赖置信度作为缺陷判定的标准并不可靠。因此,本文算法在深度学习的基础上引入了二次判断,以提高准确率。尽管本文设计的方法在平均检测时间上比深度学习方法多了0.062 s,但准确率提高了26%。使用YOLOv5s-MEF模型及本文的算法的部分识别结果如图21所示。

为测定本文算法的检测性能,选用改进模板匹配法3和改进SSD算法20与本文算法进行对比实验。测试图像选用100张正确图像,120张缺陷图像,其中包括80张缺损图像,40张色差图像。对比结果如表4所示。由表4可以看出,本文的算法在检测时间上,对比改进模板匹配法平均检测时间缩短了0.203 s,识别准确率也上升了0.9%。对比改进SSD算法,虽然在检测时间上增加了0.029 s,但是识别准确率得到了大幅提高,达到了3.1%。本文方法在工业环境下的检测时间与准确率均在允许范围内。

5 结论

本文设计了一种丝印字符的缺陷检测方法,该方法将设计的YOLOv5s-MEF模型引入缺陷检测中作为初识别算法,将无法通过模型识别的字符送入精确缺陷检测算法中再次检测,并在精确识别算法中通过设计的自适应二次阈值二值化算法解决因材质造成光照不均的问题,实现了自适应图像的准确分割;通过设计的自适应目标区域提取与角度矫正算法解决了工业环境下采集图像位姿不确定的问题,实现了目标区域的自适应定位与分割,最后通过局部特征相似度对比,完成了缺陷的检测。经过工业生产验证,本文方法在检测准确率及速度上都满足工业流水线在线检测的需求。

参考文献

[1]

张德海,祝志逢,李艳芹,.基于机器视觉的二维图像质量缺陷检测研究进展[J].包装工程202344(23):198-207.

[2]

ZHANG DehaiZHU ZhifengLI Yanqinet al.Research Progress of Two-dimensional Image Quality Defect Detection Based on Machine Vision[J].Packaging Engineering202344(23):198-207.

[3]

唐建华,张鑫,刘金海,. 基于复合骨干网络的漏磁小缺陷信号检测方法[J].电子测量与仪器学报202438 (10): 69-77.

[4]

TANG JianhuaZHANG XinLIU Jinhaiet al.Signal Dtection Method for Magnetic Flux Leakage Small Defects Based on Composite Backbone Network[J].Journal of Electronic Measurement and Instrumentation202438 (10): 69-77.

[5]

胡宜笑.印刷品缺陷检测研究与应用[D]. 长沙:湖南大学,2022.

[6]

HU Yixiao. Research and Application of Printing Detection[D]. Changsha:Hunan University,2022.

[7]

梅文宝.基于形状模板匹配的手机商标检测技术研究[D].广州:广东工业大学,2017.

[8]

MEI Wenbao.The Research of Mobile Phone Logo Detection Technology Based on Shape Model Matching[D].Guangzhou:Guangdong University of Technology, 2017.

[9]

BROWN L.A Survey of Image Registration Techniques[J].ACM Computing Surveys199224(4):325-376

[10]

ZITOVA BFLUSSER J. Image Registration Methods: Asurvey[J]. Image and Vision Computing200321(11): 977-1000.

[11]

LOVE D. Distinctive Image features from Scale Invariant Key-points[J]. International Journal of Vision Computer200460(2):91-110.

[12]

吴先锋.基于机器视觉的智能电表铭牌印刷缺陷检测[D].长沙:湖南大学,2022.

[13]

WU Xianfeng.Detection of Defects in Nameplate Printing of Smart Meter Based on Machine Vision[D]. Changsha:Hunan University,2022.

[14]

李大华,徐傲,王笋,.基于改进YOLOv5的印刷电路板缺陷检测[J].电子测量技术202346(23):112-119.

[15]

LI DahuaXU AoWANG Sunet al.Printed Circuit Board Defect Detection Based on Improved YOLOv5[J]. Electronic Measurement Technology202346(23): 112-119.

[16]

童小钟,魏俊宇,苏绍璟,.融合注意力和多尺度特征的典型水面小目标检测[J].仪器仪表学报202344(1):212-222.

[17]

TONG XiaozhongWEI JunyuSu Shaojinget al.Typical Small Target Detection on Water Surfaces Fusing Attention and Multi-scale Features[J]. Chinese Journal of Scientific Instrument202344(1):212-222.

[18]

楼豪杰. 基于少样本学习的印刷品微小缺陷检测方法研究[D].西安:西安理工大学,2022.

[19]

LOU Haojie.Reserch on Small Defect Defection Methon of Printing Matter Based on Few-shot Learning[D]. Xi'an:Xi'an University of Technology,2022.

[20]

OTSU N. A Threshold Selection Method from Gray-level Histograms[J].IEEE Transactions on Systems Man &Cybernetics20079(1):62-66.

[21]

冯毅雄,李康杰,高一聪, .基于特征与形貌重构的轴件表面缺陷检测方法[J].浙江大学学报(工学版)202054(3): 427-434.

[22]

FENG YixiongLI KangjieGAO Yiconget al. Shaft Surface Defect Detection Method Based on Feature and Morphology Reconstruction[J]. Journal of Zhejiang University(Engineering Science)202054(3): 427-434.

[23]

胡蝶,侯俊,张全年,.基于卷积神经网络的生产日期识别[J].电子测量技术202043(1):152-156.

[24]

HU DieHOU JunZHANG Quannianet al. Production Date Identification Based on Convolutional Neural Network Electronic Measurement Technology,202043(1):152-156.

[25]

HOWARD ASANDLER MCHEN Bet al. Searching for MobileNetV3 [C]∥IEEE International Conference on Computer Vision (ICCV).Seoul, 2020:00140.

[26]

HU JSHEN LSUN Get al.Squeeze-and-Excitation Networks[C]∥IEEE Conference on Computer Vision and Pat-tern Recognition. Salt Lake City, 2018:00745.

[27]

WANG Q LWU B GZHU P Fet al.ECANet:

[28]

Efficient Channel Attention for Deep Convolutional

[29]

Neural Networks[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway,2020: 11531-11539.

[30]

李博宇,杨文翰,杨乐,.基于模板匹配的肥料外包装印刷缺陷检测研究[J].印刷与数字媒体技术研究2023(2):39-49.

[31]

LI BoyuYANG WenhanYANG Leet al.Research on Defect Detection of Fertilizer Packaging Based on Template Matching[J].Printing and Digital Media StudyTechnology2023(2):39-49.

[32]

尹玉梅. 基于感知哈希的图像相似检索算法研究[D].昆明:昆明理工大学,2021.

[33]

YIN Yumei.Research on Image Similarity Retrieval

[34]

Algorithm Based on Perceptual Hash[D]. Kunming:

[35]

Kunming University of Technology, 2021.

[36]

顾桂梅,王小亮.深度学习的接触网小目标缺陷识别研究[J].电子测量与仪器学报202438(4):151-160.

[37]

GU JiameiWANG Xiaoliang.Identification of the Catenary Small Target Defects in Deep Learning[J].Journal of Electronic Measurement and Instrumentation202438(4):151-160.

基金资助

湖北省自然科学基金(2022CFB301)

湖北省重点研发计划(2022BBA0016)

AI Summary AI Mindmap
PDF (3069KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/