摘要:长文本中的信息压缩和语义连贯性一直是摘要生成模型的难点. 为此本文提出了一种融合内容引导与多尺度注意力的摘要生成模型. 该模型通过双分支结构实现对多粒度语义的联合建模, 并利用内容引导机制聚焦于摘要相关的关键信息区域. 模型在传统BERT-Transformer架构基础上引入双分支结构增强语义表达能力, 并通过MSAA-SAM融合机制设计, 进一步实现跨分支信息对齐与表达统一. 同时, 本文对指针生成网络进行了改进, 结合全局句向量引导机制提升生成控制能力, 从而增强对长文本中关键信息的提取与冗余内容的抑制. 在NLPCC 2017数据集和LCSTS数据集上的实验结果表明, 该模型在生成式摘要任务上均优于主流基线模型, 验证了其在语义建模、生成质量与控制能力方面的综合优势.