摘要:联邦学习是一种分布式机器学习技术, 允许参与方在本地训练模型并上传更新至中央服务器, 由中央服务器聚合更新来生成更优的全局模型, 从而保障数据隐私和解决数据孤岛问题. 然而, 梯度聚合过程依赖中央服务器, 这可能导致单点故障, 且中央服务器也是潜在的恶意攻击者. 因此, 联邦学习必须去中心化. 现有的去中心化方案没有考虑外部敌手和数据通信带来的性能瓶颈问题. 为了解决上述问题, 提出一种考虑外部敌手的去中心化联邦学习方法. 该方法应用Shamir秘密共享方案, 将模型更新分成多个份额, 保护梯度隐私. 该方法提出一种洪泛共识协议, 每轮随机选取某一参与方作为中央服务器完成全局聚合, 高效实现联邦学习的去中心化. 同时, 该方法引入BLS聚合签名, 防范外部敌手攻击, 提升验证效率. 理论分析和实验结果表明, 该方法是安全高效的, 相比同类联邦学习方法具有更高的效率.