AI安全检测模型的可解释性与归因分析

朱晓娅

信息记录材料 ›› 2026, Vol. 27 ›› Issue (2) : 194 -196.

PDF
信息记录材料 ›› 2026, Vol. 27 ›› Issue (2) : 194 -196. DOI: 10.16009/j.issn.1009-5624.2026.02.062

AI安全检测模型的可解释性与归因分析

    朱晓娅
作者信息 +

Author information +
文章历史 +
PDF

摘要

人工智能(AI)安全检测模型已成为网络安全防御的核心手段,但其“黑箱特性”导致决策过程难以追溯,且现有可解释性方法存在场景适应性差、因果关系不明确、实际落地困难等问题,难以满足合规要求。本文梳理了AI安全检测模型的可解释性需求与挑战,提出一种融合因果推理与安全知识图谱的归因框架,通过“特征级-路径级-因果级”三级流程实现精准溯源,并在典型场景中开展真实案例验证。结果显示,该框架的解释结果与人工分析的一致性达到92%,安全事件处置时间缩短50%以上。定量评估表明,本框架的解释保真度显著优于传统的沙普利可加性解释(SHAP)方法,能够为AI安全工具提供“可解释、可信赖、可落地”的技术支撑。

关键词

人工智能(AI)安全检测 / 可解释性 / 归因分析 / 因果推理

Key words

引用本文

引用格式 ▾
AI安全检测模型的可解释性与归因分析[J]. 信息记录材料, 2026, 27(2): 194-196 DOI:10.16009/j.issn.1009-5624.2026.02.062

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/