2022-01-13组汇报告摘要-03

本次我将梳理我的研究《基于零知识证明的异构架构联邦学习安全聚合方法研究》的实验设置并重点讲解其中的零知识证明应用部分

科研背景及问题

联邦学习支持在不损害多个参与者的数据隐私的情况下,创建强大的集中式模型。由于知识产权问题以及任务和数据的异构性,每个参与者独立设计自己的模型在实际应用中具有广泛的需求。在面临数据中毒攻击、模型中毒攻击以及推理攻击时,异构架构联邦学习的鲁棒性和隐私性同样会受到威胁。因此,增强异构架构联邦学习的鲁棒性及隐私性是非常有意义的研究方向。
问题:目前在异构架构联邦学习的场景下还没有有效的保护系统隐私性以及鲁棒性的方法。

实验思路

1.公共数据集预训练,初始化模型
2.私有数据集训练
3.模型在public data batch上测试获取logits(softmax层之前的输出)
(零知识证明模块)4.上传logits
5.计算平均,返回共识 (返回2.)

异构架构联邦学习系统部分
联邦学习系统基于FedMD[1],分别在私有数据集和公共数据集上进行投毒攻击;恶意控制模型上传编造的losgits;截获第(4)步中的logits,推理攻击还原出模型结构。

零知识证明模块
零知识证明是指证明者能够在不向验证者提供任何有用信息的情况下,只通过双方交互使验证者相信某个论断是正确的。
1)完备性
2)合理性
3)零知识性

在本研究中,每个参与方必须提供一个非交互式零知识证明,证明其提交的更新logits格式正确,并且其范数符合设置的边界 (边界由公共数据集计算或中值方法) 。若服务端验证成功,进行更新步骤;若失败,将该参与方的logits排除在本次更新之外,计算其他验证成功的参与方提供的logits的平均值。

[1] Li, Daliang, and Junpu Wang. “Fedmd: Heterogenous federated learning via model distillation.” arXiv preprint arXiv:1910.03581 (2019).