摘要:联邦学习是一种分布式机器学习方法, 它将数据保留在本地, 仅将计算结果上传到客户端, 从而提高了模型传递与聚合的效率和安全性. 然而, 联邦学习面临的一个重要挑战是, 上传的模型大小日益增加, 大量参数多次迭代, 给通信能力不足的小型设备带来了困难. 因此在本文中, 客户端和服务器被设置为仅一次的互相通信机会. 联邦学习中的另一个挑战是, 客户端之间的数据规模并不相同. 在不平衡数据场景下, 服务器的模型聚合将变得低效. 为了解决这些问题, 本文提出了一个仅需一轮通信的轻量级联邦学习框架, 在联邦宽度学习中设计了一种聚合策略算法, 即FBL-LD. 算法在单轮通信中收集可靠的模型并选出主导模型, 通过验证集合理地调整其他模型的参与权重来泛化联邦模型. FBL-LD利用有限的通信资源保持了高效的聚合. 实验结果表明, FBL-LD相比同类联邦宽度学习算法具有更小的开销和更高的精度, 并且对不平衡数据问题具有鲁棒性.