恶意参与者多数情景下的聚合模型保护算法

张恩, 高婷, 黄昱晨

河南师范大学学报(自然科学版) ›› 2025, Vol. 53 ›› Issue (04) : 58 -65+2.

PDF
河南师范大学学报(自然科学版) ›› 2025, Vol. 53 ›› Issue (04) : 58 -65+2. DOI: 10.16366/j.cnki.1000-2367.2024.04.12.0001

恶意参与者多数情景下的聚合模型保护算法

    张恩, 高婷, 黄昱晨
作者信息 +

Author information +
文章历史 +
PDF

摘要

隐私保护联邦学习能够帮助多个参与者构建机器学习模型.然而,该方法很难防御恶意参与者占多数时的投毒攻击.此外,用户或服务器可能会私自出售聚合模型.针对以上问题,提出了一种抗大多数恶意参与者的安全聚合方案,同时保护聚合结果不泄露.在训练阶段,参与者使用差分隐私噪声和随机数保护局部模型;然后参与者对其余的差分隐私模型进行准确率测试,并将结果记录在一个向量中;最后参与者与服务器执行不经意传输协议,得到聚合模型.通过安全分析证明了安全性和正确性.实验结果表明,算法在恶意参与者占多数时仍能保持良好的检测能力,并在一定程度上保证了参与者的公平性.

关键词

联邦学习 / 隐私保护 / 不经意传输 / 同态哈希

Key words

引用本文

引用格式 ▾
恶意参与者多数情景下的聚合模型保护算法[J]. 河南师范大学学报(自然科学版), 2025, 53(04): 58-65+2 DOI:10.16366/j.cnki.1000-2367.2024.04.12.0001

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

96

访问

0

被引

详细

导航
相关文章

AI思维导图

/