摘要:非合作航天器缺乏合作信息, 无法直接利用传感器获得位姿数据, 提出一种基于ISAR图像的位姿识别网络. 相比于空间摄影卫星拍摄的图像以及仿真数据, 该图像更易获取、成本更低, 但存在分辨率低、面板成像不完整等问题. 因此, 该网络在图像预处理时, 通过对YOLOX-tiny的调整, 将其作为航天器裁剪网络, 避免图像中标记的数据影响后续网络的训练, 使网络仅关注航天器所在区域. 利用增强的Lee滤波滤除图像噪声, 提升图像的质量. 在骨干网络中, 加入STN模块, 使网络选择最相关的区域注意, 将U-Net网络设计成密集残差块结构并结合CBAM模块, 减少下采样期间的特征损失, 提高模型的准确性. 此外, 引入了多头自注意力来捕获更多的全局信息. 实验结果表明, 该模型最小、最大、平均误差较于目前的一些主流模型均有所提升, 误差缩小了0.5–0.6, 从而证明该网络具有更好的位姿识别能力.