摘要:针对去中心化联邦学习中因节点动态异构性及通信资源分配不合理导致的模型收敛效率低、通信开销大等问题, 本文提出一种基于深度强化学习的分层设备通信优化方案. 首先, 构建分层拓扑驱动的联邦学习框架, 底层设备通过Gossip协议实现局部模型聚合, 高层代表节点执行跨区域全局协同, 降低通信频率并缓解动态网络下的参数不一致问题. 其次, 设计基于深度确定性策略梯度(deep deterministic policy gradient, DDPG)的动态资源联合优化算法, 通过联合调整节点协作策略与频谱资源分配, 自适应平衡通信成本与模型精度, 抑制设备间传输差异引起的全局模型偏移. 实验结果表明, 在MNIST和CIFAR-10数据集上, 所提方案相较于传统去中心化联邦学习方法, 模型预测精度平均提升2.61%, 通信能耗降低64.1%.