用于多实例嵌入学习的层次化关键实例选择方法

潘臻 ,  张雨轩 ,  张佳慧 ,  闵帆 ,  杨梅

南京大学学报(自然科学) ›› 2026, Vol. 62 ›› Issue (02) : 297 -308.

PDF (898KB)
南京大学学报(自然科学) ›› 2026, Vol. 62 ›› Issue (02) : 297 -308. DOI: 10.13232/j.cnki.jnju.2026.02.012

用于多实例嵌入学习的层次化关键实例选择方法

作者信息 +

Hierarchical key instance selection for multi⁃instance embedding learning

Author information +
文章历史 +
PDF (919K)

摘要

在多实例学习(Multi⁃Instance Learning,MIL)中,数据对象以层次结构的形式被组织为由多个实例组成的包.传统的MIL嵌入方法通过选择具有代表性的实例来将每个包嵌入为向量以简化MIL问题,然而大多数现有方法忽略了包的层次结构,导致生成的关键实例集(Key Instance Set,KIS)中包含大量离群实例.此外,这些方法没有利用KIS去除包中的离群点,影响了包的嵌入效果.为此,提出一种层次化关键实例选择的多实例嵌入学习算法(Hierarchical Key Instance Selection for Multi⁃Instance Embedding Learning,HKMIL),其包括三个关键技术:首先,层次化实例选择技术(Hierarchical Instance Selection,HIS)结合子空间与相似度更新机制,用于识别和优化KIS,同时根据实例密度生成新的包;其次,Fisher向量嵌入技术(Fisher Vector Embedding,FVE)利用高斯混合模型从新包中提取关键统计信息,将其转化为向量;最后,集成分类技术(Ensemble Classification Technique,ECT)动态加权融合KIS更新前后的信息,以提升包级别标签预测的准确性.在六个典型的MIL任务上的实验结果表明,HKMIL优于九种当前最先进的算法,取得了更优异的分类性能.

Abstract

In MIL (Multi⁃Instance Learning),data objects are hierarchically organized as bags containing multiple instances. The well⁃known MIL embedding approach embeds each bag as a vector by selecting representative instances. However,most existing methods ignore the hierarchical structure of bags,leading to the generated KIS (Key Instance Set) that contains substantial outlier instances (the instances where bag labeling cannot be triggered). Additionally,KIS is not utilized to exclude outliers in bags,which will impact embedding quality. To address these issues,we propose HKMIL (Hierarchical Key Instance Selection for Multi⁃Instance Embedding Learning) algorithm with three technologies. First,HIS (Hierarchical Instance Selection) uses subspace⁃ and affinity⁃based updates to identify and refine KIS,generating new bags while considering instance density. Second,FVE (Fisher Vector Embedding) technique uses Gaussian mixture models to extract key statistical information from the new bags,converting them into vectors to simplify the MIL problem. Third,ECT (Ensemble Classification Technique) dynamically weights the information before and after KIS updates for improved bag label predictions. Experiments on six MIL tasks show that HKMIL outperforms nine state⁃of⁃the⁃art algorithms,achieving superior classification performance.

Graphical abstract

关键词

多实例学习 / 关键实例 / 实例选择 / 嵌入方法 / 集成学习

Key words

multi⁃instance learning / key instance / instance selection / embedding / ensemble learning

引用本文

引用格式 ▾
潘臻,张雨轩,张佳慧,闵帆,杨梅. 用于多实例嵌入学习的层次化关键实例选择方法[J]. 南京大学学报(自然科学), 2026, 62(02): 297-308 DOI:10.13232/j.cnki.jnju.2026.02.012

登录浏览全文

4963

注册一个新账户 忘记密码

多实例学习(Multi⁃Instance Learning,MIL)是一种旨在处理复杂数据结构的学习范式.在MIL中,每个数据样本被表示为一个包含多个实例的包,且监督信息仅在包级提供,而实例级标签是未知的,或者获取代价高昂.根据MIL基准假设1,当一个包中至少包含一个正实例时,该包被标记为正,否则为负.这种学习范式与现实世界中的许多应用高度契合,例如图像分类2-3、医学诊断4和网络推荐5.
根据算法的实现原理,现有的MIL方法可分为三类6.基于实例的方法7对每个实例分别进行分类,然后将单个实例的预测结果整合以估计包的标签,然而,由于实例监督信息的缺失,其预测结果不可靠,导致误差累积.基于包的方法8将整个包视为一个整体,重点建模不同包之间的相似性或者邻域关系,虽然这种方式能够捕获包的层次结构,但由于没有考虑潜在的实例标签,容易遗漏关键信息,影响整体性能.基于嵌入的方法9将包映射到新的特征空间中,将MIL问题转化为标准的单实例分类任务,通过这种嵌入,能够有效地刻画包与实例之间的关系.
近年来,基于关键实例选择(Key Instance Selection,KIS)的嵌入学习已成为MIL研究的热点之一,其中关键实例代表性可通过聚类分析10、相似度计算11或判别式优化12等方式来评估,但这些方法通常仅依赖单一度量指标来生成关键实例集(Key Instance Set,KIS),忽略了包的层次结构,而且没有利用KIS来去除包中的离群实例,在嵌入过程中引入噪声信息,导致分类性能下降且可扩展性低.
为了应对上述问题,本文提出一种面向多实例嵌入学习的分层关键实例选择算法(Hierar⁃chical Key Instance Selection for Multi⁃Instance Embedding Learning,HKMIL),其总体框架如图1所示.具体地,在给定的MIL数据集中,天然存在实例级与包级这两个层次结构.由于实例数量远多于包的数量,直接生成KIS难度较高,因此,首先提出一种三阶段的分层实例选择技术(Hierarchical Instance Selection,HIS)用于初始KIS的生成与更新.对于初始化阶段,HIS在实例空间中采样多个随机子空间,利用判别策略快速生成初始正负关键实例集,以确定可行域.对于更新阶段,HIS采用基于相似度的更新策略,进一步清除初始KIS中的离群实例.对于生成阶段,则利用更新后的KIS计算包内实例的相似度与密度,从而筛选关键实例并生成新包.其次,提出Fisher向量嵌入技术(Fisher Vector Embedding,FVE),其利用高斯混合模型从新包中提取关键统计信息,并将其转换为固定长度的向量,从而将MIL分类任务简化为传统的单实例监督分类问题.
最后,设计集成分类技术(Ensemble Classification Technique,ECT),充分利用更新前后的KIS信息,并采用动态加权策略融合不同阶段的特征,实现更稳定、更强健的包级分类性能.HKMIL在23个数据集上进行了实验,实验结果证明其在突变性预测与医学图像分类任务中表现尤为出色,显著优于九种最新的MIL算法.
本文的主要贡献如下.
(1)提出一种分层实例选择技术,充分利用包的层次结构,有效去除离群实例,并通过快速定位可行域生成新包.在此基础上,FVE准确提取统计信息,将包嵌入为向量,简化MIL分类问题.
(2)设计一种集成分类技术,充分利用KIS更新前后的关键信息,防止重要知识遗忘,并通过动态加权策略构建更强的集成分类器.

1 相关工作

1.1 多实例学习

1997年Dietterich1首次将MIL引入药物活性检测领域.在这一框架下,每个分子被视为一个包,而同一分子的同分异构体被视为实例.如果一个包中至少包含一个能够产生药效的实例,则该包被标记为正,否则为负.通过这种方式,可以预测新分子是否具有药物活性.基于这一思想,2006年MILES13将实例空间视作原型集,并通过高斯相似度来评估包与原型之间的关系,从而在新的特征空间中对包进行特征化表示.2013年MILFM14通过学习正负相关概念的分布来评估实例的重要性与代表性.2018年ABMIL15采用注意力机制来识别包内的关键实例,并结合门控机制来提升模型性能.2020年StableMIL16专注于识别因果实例以确定最具代表性的正样本.同年,SMDP17提出一个基于密度峰值聚类的代表性发掘方法,能够最大化实例选择的多样性.2024年MINTL5提出一种基于优化理论的类别边界信息学习方法,能更高效地确定分类超平面.INS18在MIL框架下首次设计了实例级弱监督对比学习算法,以更好地学习实例特征表示.ELIMIPL19利用共轭标签信息来有效提高消歧性能.CAMIL20引入邻域约束注意力,在包内建模实例间依赖关系,并将上下文约束作为先验知识融入MIL模型.MIPLMA21提出一种基于裕度调整的MIL算法,可用于注意力分数和预测概率的裕度自适应调整.

2025年CDL22提出一种可插拔的消歧策略,大幅提升了MIL算法的准确度.PSMIPL23提出一种用于MIL的倾向性评分框架,有效利用了标签集中的弱监督信息.MSFF24提出一种融合体素块内部、体素块之间以及高置信度体素块的MIL多尺度特征融合框架,可以有效提升辅助诊断效果.GDF⁃MIL25提出一种基于原型压缩的图MIL方法,能快速捕获包中的语义与拓扑结构信息.上述大多数方法属于基于嵌入MIL算法,按照实现原理可分为四类,即实例方法、统计方法、核函数方法以及基于包的方法.本文主要聚焦于基于实例的嵌入方法,后续将对此进行详细介绍.

1.2 基于实例的MIL嵌入方法

在实际的MIL应用中,实例数量通常远远大于包的数量.由于实例标签不可见或缺失,MIL成为一种典型的弱监督学习问题,因此,基于实例的MIL嵌入方法的关键挑战在于有效利用未标注实例中的潜在信息,以更好地训练分类模型.2009年MILD26通过计算实例之间的相似度来评估实例对包标签的贡献,从而识别正包中的真实正样本.2018年MILDM27引入实例判别准则,并定义了实例可区分性度量.2019年ISK28基于数据相关的隔离集核,设计了一种基于数学期望的稀疏特征映射方法.2022年IMIL29提出一种基于因果干预的期望最大化框架,以提升实例级预测的可靠性.2023年FCBE⁃miFV7采用模糊聚类计算每个实例的选择概率,从而实现鲁棒的包嵌入.DEMIPL30提出消歧注意力机制,学习包内实例的注意力权重.2024年CaMIL31引入可学习的因果建模机制与跨注意力,有效消除了包内的伪相关性.2026年ProtoMIL32提出一种基于原型引导和注意力增强的多实例嵌入学习,其可以很好地处理混淆实例的分布问题,并可以作为一个即插即用部件来提升已有模型的性能.

这些算法在实例选择与包转换方面提供了宝贵的启发,然而,它们存在一个共性问题,即生成KIS的过程通常依赖单一度量指标,忽视了包的层次结构,这种忽略会在嵌入过程中引入离群实例,降低了分类性能.对此,本文采用分层策略并同时考虑相似度与密度信息,以更全面地挖掘实例特征.此外,HKMIL的差异不在于引入新的监督信号,而在于将关键实例集从一次性选择转换为可迭代优化的中间变量,并进一步把KIS用于离群实例剔除与新包构建,同时通过集成策略显式利用更新前后的互补信息,从而在不增加实例标注成本的前提下提升嵌入质量与分类稳定性.

2 算法

首先对基本符号进行定义并说明MIL范式,然后依次介绍所设计的三项核心技术,即用于关键实例挖掘的分层实例选择技术、用于获取包表示的Fisher向量嵌入技术以及用于获取预测标签的集成分类技术.

2.1 符号定义与MIL范式说明

T=Bii=1N表示给定的数据集,其中,Bi=xijj=1ni表示T中的第i个包,xij表示Bi中的第j个实例,Nni分别表示TBi的基数.令X=iBiR d表示包含所有xij的实例空间,其中,d表示xij的维度.MIL中每个包对应一个监督信息yi-1,+1,所有的yi构成对应于T的标签向量Y=y1,y2,,yni.相应地,尽管xij没有监督信息,但其对应于一个潜在的语义标签yij*-1,+1.基于标准MIL假设1,包的标签可以由实例标签导出:

yi=+1,    if  j1,2,,ni,yij*=+1-1,                 otherwise                    

在基于关键实例的MIL嵌入方法中,主要任务包括生成关键实例集K并设计基于K的嵌入函数F:BiVi,从而将Bi映射为向量表示Vi,并通过类似SVM的分类器输出预测标签y^i.

2.2 分层实例选择技术

现有的关键实例选择方法1225存在以下缺点:(1)解空间过大,使得KIS的生成过程耗时;(2) KIS未被更新或只保留更新后的KIS,造成信息损失;(3)学得的KIS没有用于包内的关键实例筛选,导致嵌入过程中仍存在离群实例.为此,本文提出一种三阶段的KIS优化策略HIS,其充分利用包的层次结构,有效去除离群实例并生成新包,为后续嵌入与分类做准备.

2.2.1 阶段一:KIS初始化

KIS初始化的目标是通过随机子空间策略31快速识别实例空间中的关键节点,同时利用判别关系生成初始的正、负关键实例集11-12.对此,首先生成Φ个随机子空间:

S=Sϕϕ=1Φ=ckϕk=1Kϕ=1Φ

其中,ckϕ表示子空间X*的聚类中心.具体地,子空间X*R n*×d*是从原始实例空间XR n×d中随机采样而来,且对于每个采样的实例,只保留d*个随机特征维度33.一旦Sϕ确定,X*便可自然地被划分为K个簇Ckϕ.基于簇中实例所对应的包的标签,可以计算每个簇的正、负实例的比例:

δϕk+=xij*xij*Ckϕ,yi=+1Cϕkδϕk-=xij*xij*Ckϕ,yi=-1Cϕk

据此,将实例在当前子空间中的相关性权重定义为:

sijϕ=δk+ϕ,    xij*Ckϕ,yi=1    δk-ϕ,    xij*Ckϕ,yi=-10,            otherwise          

该权重体现了实例的判别性.因此,对于Φ个子空间上,实例的平均权重计算为:

sij=1Φϕ=1Φsijϕ

最终,从每个包中选择权重最大的实例分别构建初始正、负KIS:

K0+=xij*xijBi,yi=1,j*=argmaxjsij
K0-=xij*xijBi,yi=-1,j*=argmaxjsij

2.2.2 阶段二:KIS更新

虽然初始化阶段可以快速生成KIS,但由于随机采样存在一定程度的信息丢失,因此需对KIS进行更新.首先,定义实例与KIS之间的相似度为:

Ax*,K=1Kxij*Ke-x*-xij*2

该相似度越高,表示输入的实例与KIS的信息一致性越强.进一步,设计了内部竞争与外部评估这两个KIS更新策略,具体如下.

对于内部竞争策略,其主要用于KIS的提纯,即去除KIS中的低相似度实例:

xiτ+,τ=argminxij*Kt+Axij+,Kt+xiτ-,τ=argminxij*Kt-Axij-,Kt-

其中,xiτ+xiτ-分别表示正、负KIS中需要被去除的实例,t表示更新轮次.外部更新则通过遍历X*中所有的实例x*,具体的更新机制如下:

xiτ+=x*,    if  Ax*,Kt+Ax*,Kt-                             Ax*,Kt+Axiτ+,Kt+xiτ-=x*,    if Ax*,Kt-Ax*,Kt+                             Ax*,Kt-Axiτ+,Kt-

2.2.3 阶段三:新包生成

在大多数现有方法中,KIS并未用于清除包内的离群实例,导致嵌入向量中仍包含噪声,因此,本文利用KIS生成新包.直观地,Kt+Kt-分别是包含最多正例和负例的集合.根据MIL基本假设1,正实例的数量明显少于负实例的数量,自然导致生成负KIS的准确率高于生成正KIS.此外,由于测试包的标签未知,无法简单地利用测试包与正负KIS的相关性来去除异常值.为了解决这个问题,利用实例密度来更全面地评估包中的实例:

ρij=kje-djk/dc2

其中,dc为距离阈值,dij表示实例xij*xik*之间的欧式距离.进一步,结合实例与KIS的相似度,实例的关键性评估值计算为:

δij=ζij×ρij

在此基础上,为了去除包中的离群实例并获取新包,首先计算包的平均相似度:

Ai=1nij=1niAxij*,Kt-

其归一化值计算为:

AiAi-miniAimaxiAi-miniAi

Ai大于阈值ξ,则删除包中δij最小的50%实例,以生成新包Bit*,用于后续嵌入.

2.3 Fisher向量嵌入技术

Fisher向量嵌入技术源自Fisher核710,其主要利用高斯混合模型(Gaussian Mixture Model,GMM)将实例空间Xt*=iBit*划分为K个成分GkXt*.对于所有的成分,可以使用参数集合λ=αtk,μtk,Σtkk=1K来统一描述,其中αtkμtk以及Σtk分别表示用于描述Gk的权重、均值以及协方差矩阵.基于此,每个包的Fisher向量嵌入计算为:

Vit=fαt1Bit*,fμt1Bit*,fΣt1Bit*,,fαtKBit*,fμtKBit*,fΣtKBit*R K2d*+1

其中fαtkBit*,fμtkBit*,fΣtkBit*分别表示GMM中的统计向量.为了提升模型性能,参照Wei et al10的工作对嵌入向量进行幂归一化与L2归一化:

VitVitVit2,vitlsignvitlvitl

其中,vitlVit的第l个特征值.

2.4 集成分类技术

集成分类技术构建了一个加权集成模型,其由多个基分类器及其对应权重组成:

M=Mt,ωtt=0T

其中,Mt为单实例分类器(如SVM);ωt表示分类器权重,其通过在验证集上预测的包分类准确率获得;T为KIS的更新次数.最后,利用每次更新生成的特征空间训练分类器,再通过加权投票获得最终预测结果:

y^i=signt=0Tωty^it

其中,y^it=MtVit.

3 实验

使用来自六个不同应用场景的23个MIL数据集来验证提出的HKMIL算法的有效性.针对每个数据集,将HKMIL与九种当前最先进的MIL方法进行对比.此外,还全面分析了五类实验,依次为性能对比、消融实验、参数分析、统计显著性检验以及效率分析.

3.1 实验设置

使用的MIL数据集涵盖六类典型任务:药物活性预测1、致突变性预测34-35、医学图像分析10、图像分类11、文本分类36以及视频异常检测37.此外,在基于嵌入的MIL算法的四个子类中依次选择具有代表性的九个算法用于性能对比,分别为:(1)基于统计的算法Simple⁃MI38,没有超参数配置;(2)基于核函数的算法MSK11,其权重比设为0.5,0.5,距离函数采用最小值策略;(3)基于包的算法ELDB39,包选择模式设为“a”,代表性包比例设为0.9;(4)基于嵌入的算法,包括FCBE⁃miFV7,MILFM14,MILDM27,miVLAD10,StableMIL16以及DPMIL9.

参数设置如下:FCBE⁃miFV的子空间比例设为0.05,子空间数量为15;MILFM的聚类中心数量为40;MILDM的判别性实例数为包的数量;miVLAD的密码本大小为1;StableMIL的实例阈值为0.25;DPMIL的候选实例数量级从1,1.25,,2.5中选取.

对于提出的HKMIL算法,其主要控制参数包括参与离群实例去除的包比例0.25,0.5,

0.75,1.0(即对于给定的数据集,只有给定比例且随机选择的包会被执行离群实例去除操作)和随机子空间数量5,10,,25,其他参数通过经验值进行设置,每个子空间的聚类数量设为1,高斯混合模型的分量设为1,包内删除的离群实例比例为0.5.此外,所有实验均采用10次10折交叉验证(10×10CV),以平均准确率与相应的标准差作为最终的评价指标.

3.2 性能对比

将HKMIL与九种最新算法在六类数据集上进行了性能对比,结果以平均准确率和标准差表示,如表1所示,表中黑体字表示最佳结果.综合来看,HKMIL在23个数据集中取得优异表现,其中在16个数据集上排名第一,三个数据集上排名第二.进一步,HKMIL在Messidor与Ucsb breast医学数据集上的性能优势最显著.在大多数文本数据集上(超过一半),HKMIL得到最优或接近最优的结果,这种性能提升主要得益于HKMIL的层次化结构,在实例选择过程中逐步更新关键实例集,并利用其指导新包生成和模型训练,而现有的多数方法没有充分利用这些阶段性信息.在图像数据集Tiger上,HKMIL的结果略逊于ELDB,这表明其仍有优化空间.该差距的原因在于ELDB使用了判别性策略与强化更新机制,可以更高效地提取图像特征,而传统MIL方法普遍缺乏此类能力.总之,HKMIL在六个领域的数据集上展现了很高的性能优势与可迁移性,尤其在药物活性预测与致突变性预测上.

3.3 消融实验

HKMIL的核心步骤包括KIS的初始化与更新,前者用于识别信息丰富的实例以剔除噪声实例,后者通过迭代更新进一步提升KIS的质量.在此基础上,FVE模块将每个包嵌入固定长度向量,使传统机器学习分类器可以直接应用.由于嵌入是该框架不可或缺的核心环节,因此FVE模块在消融实验中始终保留.此外,当移除更新模块时,HKMIL会退化为仅包含单一分类器的模型.因此,重点分析了KIS更新机制与集成分类器对性能的提升,具体如表2所示,表中黑体字表示最优性能.由表可见,包含更新与集成机制的完整HKMIL模型在所有代表性数据集上均取得最佳性能(除Musk2).例如,完整模型和两种消融版本相比,在Mutagenesis2数据集上,准确率分别提升了4.5%和3.5%,在Musk2上略有0.2%的下降,原因在于该数据集中包大小的差异极大(最大与最小包的实例数比例超过1000),这种极端差异干扰了HKMIL的核心机制.总体上,KIS更新与集成模块的结合能在大多数情况下显著提升模型的分类性能.

3.4 参数分析

HKMIL包含两个关键参数,即包去除比例和随机子空间的数量,其中,前者决定后续子空间的规模,后者影响实例评估的精度与运行时间.为了分析这两个参数对算法的影响,在来自三个领域的六个代表数据集上进行参数敏感性分析,结果如图2所示,其中,在不同场景下的参数均独立优化.实验结果表明,对所有包删除所有离群实例是不现实的,这会增加错误剔除关键实例的风险并显著延长处理时间.较高的去除比例仅适用于如Musk2这类数据集,而对于Mutagenesis2与News.ss等数据集,需要较低的比例.在子空间数量方面,性能随子空间数量增加而总体提升,但在10~20个子空间时已达到最佳平衡点.因此,HKMIL推荐的参数设置为包去除比例为0.25,0.5,0.75,随机子空间数量为10,15,20.

3.5 统计显著性对比

为了进一步验证HKMIL与对比算法之间的性能差异,采用显著性水平设置为5%的Friedman检验40-41.具体地,检验结果的统计量为144.9215,p=0.0000,表明各算法之间存在显著差异,需要进行事后分析.对此采用Nemenyi检验42进行多算法间的显著性比较,结果如图3所示.由图可见,HKMIL的平均排序位于最优区间,与FCBE⁃miFV和miVLAD属于同一显著性区间,且显著优于其他所有算法.说明HKMIL在整体性能上有统计的显著优势.

3.6 时间效率对比

最后,比较HKMIL与其它对比算法的时间复杂度与运行效率.结果为一次10折交叉验证的平均CPU运行时间.具体地,HKMIL的时间开销主要由三部分组成.首先是分层实例选择,其包括实例打分、KIS更新及关键实例筛选.若使用k⁃means聚类,随机子空间的聚类复杂度为OCRdn,其中,C为聚类数,R为子空间数;更新过程与密度计算的复杂度均为 OdnN.其次是特征映射,其复杂度为 OKdN.最后是集成模型构建,其基于多个特征空间训练多个分类器,复杂度为OMdN2,其中,M为分类器数量.综上,HKMIL的总体复杂度为OdN2.

为了验证以上分析进行了运行时间分析,结果如表3所示.由表可见,HKMIL的运行效率优于MILFM,MILDM与Stable⁃MIL等算法.尽管HKMIL的计算成本略高,但由于其在每个阶段均对实例进行多次评估,因而获得了显著的分类性能提升.总体上,HKMIL在多数任务中以略高的时间开销换取了更高的精度与稳定性,表现出较优的综合性能.

4 结论

本研究提出一种面向多实例嵌入学习的分层关键实例选择算法HKMIL,以应对MIL中的关键挑战.具体地,设计了一种三阶段的分层实例选择技术,通过同时利用实例级与包级的层次信息,实现了对关键实例的高效筛选.在26个MIL数据集上的实验结果表明,HKMIL在多种任务(尤其是致突变性预测与医学图像分类)中表现出显著的性能优势,优于九种最先进的对比算法.尽管如此,HKMIL仍存在局限性:(1)更新与密度评估会带来额外计算开销,在实例规模较大或包大小差异极端的场景下效率下降;(2)当前采用固定比例的离群实例剔除与替换式更新,可能误删关键实例或导致阶段性信息遗忘;(3)方法对上游实例特征质量与分布稳定性较敏感,存在跨域漂移时性能波动的风险.未来将引入记忆/原型机制以减少遗忘并提高鲁棒性,设计更高效的近似评估与自适应阈值策略以降低开销.此外,面向工程部署,还将探索HKMIL的增量式更新与监控机制.例如,在数据流持续到达时对KIS与GMM进行轻量更新,并通过漂移检测触发重训练,同时结合关键实例可视化与人工复核形成数据闭环,以提升在真实业务中的长期稳定性.

参考文献

[1]

Dietterich T G, Lathrop R H, Lozano⁃Pérez T. Solving the multiple instance problem with axis⁃parallel rectangles. Artificial Intelligence,1997,89(1/2):31-71.

[2]

Tang W, Yang Y F, Wang Z F,et al. Multi⁃instance partial⁃label learning with margin adjustment∥Proceedings of the 38th International Conference on Neural Information Processing Systems. Red Hook,NY,USA:Curran Associates Inc.,2024:26331-26354.

[3]

朱越,姜远,周志华. 一种基于多示例多标记学习的新标记学习方法. 中国科学:信息科学,2018,48(12):1670-1680.

[4]

Li C T, Huang P, Qin J,et al. Knowledge⁃driven multiple instance learning with hierarchical cluster⁃incorporated aware filtering for larynx pathological grading. IEEE Journal of Biomedical and Health Informatics, 2025:1-13.

[5]

Xiao Y S, Liu B, Hao Z F. Multi⁃Instance nonparallel tube learning. IEEE Transactions on Neural Networks and Learning Systems,2025,36(2):2563-2577.

[6]

Zhang Y L, Zhou Z H. Multi⁃instance learning with key instance shift∥Proceedings of the 26th International Joint Conference on Artificial Intelligence. Menlo Park,CA,USA:AAAI Press,2017:3441-3447.

[7]

Waqas M, Tahir M A, Khan S A. Robust bag classification approach for multi⁃instance learning via subspace fuzzy clustering. Expert Systems with Applications,2023,214:119113.

[8]

Pal S, Valkanas A, Regol F,et al. Bag graph:Multiple instance learning using Bayesian graph neural networks∥Proceedings of the AAAI Conference on Artificial Intelligence. Menlo Park,CA,USA:AAAI Press,2022:7922-7930.

[9]

Yang M, Chen T L, Wu W Z,et al. Dual⁃perspective multi⁃instance embedding learning with adaptive density distribution mining. Pattern Recognition,2025,158:111063.

[10]

Wei X S, Wu J X, Zhou Z H. Scalable algorithms for multi⁃instance learning. IEEE Transactions on Neural Networks and Learning Systems,2017,28(4):975-987.

[11]

Yang M, Zhang Y X, Zhou Z C,et al. Multi⁃embedding space set⁃kernel and its application to multi⁃instance learning. Neurocomputing,2022,512:339-351.

[12]

Zhang Y X, Zhou Z C, He X X,et al. Data⁃Driven knowledge fusion for deep Multi⁃Instance learning. IEEE Transactions on Neural Networks and Learning Systems,2025,36(5):8292-8306.

[13]

Chen Y X, Bi J B, Wang J Z. MILES:Multiple⁃instance learning via embedded instance selection. IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(12):1931-1947.

[14]

Hong R C, Wang M, Gao Y,et al. Image annotation by multiple⁃instance learning with discriminative feature mapping and selection. IEEE Transactions on Cybernetics,2014,44(5):669-680.

[15]

Ilse M, Tomczak J, Welling M. Attention⁃based deep multiple instance learning∥Proceedings of International Conference on Machine Learning. New York,NY,USA:PMLR,2018: 2127-2136.

[16]

Zhang W J, Liu L, Li J Y. Robust multi⁃instance learning with stable instances∥Proceedings of the 24th European Conference on Artificial Intelligence. Amsterdam,Netherlands:IOS Press,2020:1682-1689.

[17]

杨梅,张雨轩,闵帆. 密度峰值聚类的半监督多示例学习. 山西大学学报(自然科学版),2020,43(4):803-816.

[18]

Qu L H, Ma Y F, Luo X Y,et al. Rethinking multiple instance learning for whole slide image classification:A good instance classifier is all you need. IEEE Transactions on Circuits and Systems for Video Technology,2024,34(10):9732-9744.

[19]

Tang W, Zhang W J, Zhang M L. Exploiting conjugate label information for multi⁃instance partial⁃label learning∥Proceedings of International Joint Conference on Artificial Intelligence. Jeju Island,Korea (South):IJCAI,2024:4973-4981.

[20]

Fourkioti O, De Vries M, Bakal C. CAMIL:Context⁃aware multiple instance learning for cancer detection and subtyping in whole slide images∥Proceedings of International Conference on Learning Represen⁃tations. Washington DC,USA:ICLR,2024:36205-36220.

[21]

Tang W, Yang Y F, Wang Z F,et al. Multi⁃instance partial⁃label learning with margin adjustment∥Proceedings of the 38th International Conference on Neural Information Processing Systems. Red Hook,NJ,USA:Curran Associates Inc.,2024:26331-26354.

[22]

Tang W, Yang Y F, Zhang W J,et al. Calibratable disambiguation loss for multi⁃instance partial⁃label learning. https://arxiv.org/abs/2512.17788,2025-12-19.

[23]

Luo H, Zhang Y X, Zhou Z,et al. Propensity scoring for multi⁃instance partial⁃label learning∥Proceedings of APWeb⁃WAIM Joint International Conference on Web and Big Data. Shenyang,China:Springer,2026:1-14.

[24]

安曾,志富帅,丹潘,. 基于多示例学习与多尺度特征融合的阿尔茨海默病分类诊断模型. 生物医学工程学杂志,2025,42(1):132.

[25]

Zhang Y X, Zhou Z C, Liu W S,et al. Rethinking multi⁃instance learning through graph⁃driven fusion:A dual⁃path approach to adaptive representation∥Proceedings of AAAI Conference on Artificial Intelligence. Menlo Park,NY,USA:AAAI,2026:28510-28518.

[26]

Li W J, Yeung D Y. MILD:Multiple⁃instance learning via disambiguation. IEEE Transactions on Knowledge and Data Engineering,2010,22(1):76-89.

[27]

Wu J, Pan S R, Zhu X Q,et al. Multi⁃instance learning with discriminative bag mapping.IEEE Transactions on Knowledge and Data Engineering,2018,30(6):1065-1080.

[28]

Xu B C, Ting K M, Zhou Z H. Isolation set⁃kernel and its application to multi⁃instance learning∥Proceedings of ACM SIGKDD International Conference on Knowledge Discovery Data Mining. New York,NY,USA:Association for Computing Machinery,2019:941-949.

[29]

Lin T C, Xu H T, Yang C Q,et al. Interventional multi⁃instance learning with deconfounded instance⁃level prediction∥Proceedings of AAAI Conference on Artificial Intelligence. Menlo Park,NY,USA:AAAI,2022:1601-1609.

[30]

Tang W, Zhang W J, Zhang M L. Disambiguated attention embedding for multi⁃instance partial⁃label learning∥Proceedings of Advances in Neural Information Processing Systems. Red Hook,NJ,USA:Curran Associates,Inc.,2023:56756-56771.

[31]

Chen K T, Sun S L, Zhao J. Camil:Causal multiple instance learning for whole slide image classification∥Proceedings of AAAI Conference on Artificial Intelligence. Menlo Park,NY,USA:AAAI,1120-1128.

[32]

Yang M, Chen T L, Wu W Z,et al. Dual⁃perspective multi⁃instance embedding learning with adaptive density distribution mining. Pattern Recognition,2025,158:111063.

[33]

Wichitaksorn N, Kang Y Y, Zhang F Q. Random feature selection using random subspace logistic regression. Expert Systems with Applications,2023,217:119535.

[34]

Reutemann P, Pfahringer B, Frank E. A toolbox for learning from relational data with propositional and multi⁃instance learners∥Advances in Artificial Intelligence.Berlin,Germeny:Springer,2004:1017-1023.

[35]

Decencière E, Zhang X W, Cazuguel G,et al. Feedback on a publicly distributed image database:The messidor database. Image Analysis Stereology,2014,33:231-234.

[36]

Zhou Z H, Sun Y Y, Li Y F. Multi⁃instance learning by treating instances as non⁃I.I.D.samples∥Proceedings of the 26th Annual International Conference on Machine Learning. New York,NY,USA:Association for Computing Machinery,2009:1249-1256.

[37]

Liu W, Luo W X, Lian D Z,et al. Future frame prediction for anomaly detection:A new baseline∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA:IEEE,2018:6536-6545.

[38]

Amores J. Multiple instance classification:Review,taxonomy and comparative study. Artificial Intelligence,2013,201:81-105.

[39]

Yang M, Zhang Y X, Wang X Z,et al. Multi⁃instance ensemble learning with discriminative bags. IEEE Transactions on Systems,Man,and Cybernetics:Systems,2022,52(9):5456-5467.

[40]

Qian K, Min X Y, Cheng Y S,et al. Weight matrix sharing for multi⁃label learning. Pattern Recognition,2023,136:109156.

[41]

Qian K, Tang J Y, Zhao Q M,et al. Multi⁃label learning for fault diagnosis of pumping units with one positive label. Applied Soft Computing,2025,174:113014.

[42]

Demšar J. Statistical comparisons of classifiers over multiple data sets. Journal of Machine Learning Research,2006,7:1-30.

基金资助

成都师范学院科研项目(YJRC202449)

南充市政府高校科研合作项目(23XNSYSX0084)

南充市政府高校科研合作项目(23XNSYSX0062)

浙江省海洋大数据挖掘与应用重点实验室开放课题(OBDMA202102)

AI Summary AI Mindmap
PDF (898KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/