摘要:分层联邦学习(hierarchical federated learning, HFL)旨在通过多层架构的协作学习, 同时保护隐私和优化模型性能. 但其效果需依赖于针对参与各方的有效激励机制及应对信息不对称的策略. 为了解决上述问题, 本文提出一种保护终端设备、边缘服务器及云服务器隐私的分层激励机制. 在边端层, 边缘服务器作为中介应用多维合约理论设计不同类型的契约项, 促使终端设备在不泄露数据采集、模型训练以及模型传输成本的情况下, 使用本地数据参与HFL. 在云边层, 云服务器与边缘服务器间关于单位数据奖励和数据量的关系通过Stackelberg博弈进行建模, 在不泄露边缘服务器单位利润的情况下, 进一步将其转化为马尔可夫过程, 并采用保护隐私的多智能体深度强化学习(multi-agent deep reinforcement learning, MADRL)方法逐渐接近斯塔克伯格均衡(Stackelberg equilibrium, SE). 实验结果表明, 本文提出的分层激励机制在性能上优于基线方法, 云服务器的收益提升了接近11%, 单位成本获取增益提升接近18倍.