本次组会将介绍个人近期实施的一次成员推理攻击案例,通过这个真实的案例推导出差分隐私的公式;并进一步将介绍差分隐私应用到分布式GAN训练中遇到的一系列问题以及目前的解决方案。
内容主要包括:1.针对kaggle比赛的一次成功成员推理的案例,2.由思考如何应对这种攻击而推导出我们的差分隐私公式,3.将差分隐私机制加入到分布式GANs训练的方案,4. 针对原始数据与加入差分隐私后的合成数据D’之间,隐私损失评估方案落地过程中遇到的一系列实际困难和解决方案。
通过本次组会介绍,我们希望大家能有如下一些收获
1.知道什么是成员推理攻击,何种情况下可以实施这种攻击
2.通过应对成员推理攻击,理解什么是差分隐私机制,能够自己推导出差分隐私公式
3.一个现实的数据集的表示方式(经验累积概率分布函数ECDF),它为何无法使用通用的理论分布形式表示(即为何无法用累积概率分布函数CDF,和概率密度函数PDF)
4.如何比较两个数据集之间的差异,J-S散度为什么可用以及它的局限性
5.解决原始数据集D和生成数据集D’的隐私损失评估方案可行性的直观表达
6.如何将数据集的表示、数据集之间的差异性比较从点数据迁移到高维数据




