一种基于知识蒸馏的异构联邦遗忘学习算法

王亚杰, 唐湘云, 祝烈煌

北京师范大学学报(自然科学版) ›› 2025, Vol. 61 ›› Issue (03) : 300 -306.

PDF
北京师范大学学报(自然科学版) ›› 2025, Vol. 61 ›› Issue (03) : 300 -306.

一种基于知识蒸馏的异构联邦遗忘学习算法

    王亚杰, 唐湘云, 祝烈煌
作者信息 +

Author information +
文章历史 +
PDF

摘要

为解决异构数据环境下联邦学习中的隐私保护问题,提出了一种融合知识蒸馏(knowledge distillation,KD)与遗忘机制的异构联邦遗忘学习算法.该算法通过提取全局模型中的通用知识并将其传递至客户端,在保持模型学习能力的同时,有效剥离本地模型中与敏感数据相关的信息,从而实现隐私遗忘.试验结果表明,该方法在各类数据结构和设备配置下均能保持良好的模型性能,同时显著提升了数据的隐私性,为异构联邦学习环境中的隐私保护提供了一种有效的技术方案.

关键词

遗忘学习 / 联邦学习 / 知识蒸馏

Key words

引用本文

引用格式 ▾
一种基于知识蒸馏的异构联邦遗忘学习算法[J]. 北京师范大学学报(自然科学版), 2025, 61(03): 300-306 DOI:

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

137

访问

0

被引

详细

导航
相关文章

AI思维导图

/