隐私保护的图像替代数据生成方法

李婉莹, 刘学艳, 杨博

吉林大学学报(信息科学版) ›› 2024, Vol. 42 ›› Issue (01) : 59 -66.

PDF
吉林大学学报(信息科学版) ›› 2024, Vol. 42 ›› Issue (01) : 59 -66. DOI: 10.19292/j.cnki.jdxxp.2024.01.018

隐私保护的图像替代数据生成方法

    李婉莹, 刘学艳, 杨博
作者信息 +

Author information +
文章历史 +
PDF

摘要

针对现有图像数据集存在的隐私保护需求,提出一种图像数据集隐私保护场景及该场景下隐私保护的图像替代数据生成方法。该场景利用经隐私保护方法处理后的替代图像数据集取代原始图像数据集,其中替代图像与原始图像一一对应,人类无法识别替代图像所属类别,替代图像可训练现有的深度学习图像分类算法,且具有较好的分类效果。同时针对上述场景,改进了基于投影梯度下降(PGD:Project Gradient Descent)攻击的数据隐私保护方法,将原始PGD攻击目标由标签改为图像,即图像对图像的攻击,并使用经过对抗训练的鲁棒模型进行图像对图像攻击作为替代数据的生成方法。在标准测试集上,替代后的CIFAR(Canadian Institute For Advanced Research 10)数据集和CINIC数据集在图像分类任务上分别取得了87.15%和74.04%的测试正确率。实验结果表明,该方法能在保证替代数据集对人类隐私性的前提下,生成原始数据集的替代数据集,并保证现有方法在该数据集上的分类性能。

关键词

深度学习 / 隐私保护 / 计算机视觉 / 对抗攻击 / 对抗样本

Key words

引用本文

引用格式 ▾
隐私保护的图像替代数据生成方法[J]. 吉林大学学报(信息科学版), 2024, 42(01): 59-66 DOI:10.19292/j.cnki.jdxxp.2024.01.018

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

78

访问

0

被引

详细

导航
相关文章

AI思维导图

/