多注意力融合的TransUNet医学影像分割模型
作者:
基金项目:

国家自然科学基金 (62173171)


TransUNet Medical Image Segmentation Model with Multi-attention Fusion
Author:
  • 摘要
  • | |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • | |
  • 文章评论
    摘要:

    精确识别组织器官和病变区域是医学影像分析中最重要的任务之一. 在现有的医学影像语义分割研究中, 基于U-Net结构的模型占据了主导地位. TransUNet结合了CNN和Transformer的优势, 弥补了两者在捕捉长程依赖和提取局部特征方面的不足, 但在提取和复原特征的位置时仍不够准确. 针对此问题, 提出了一种多注意力融合机制的医学影像分割模型MAF-TransUNet. 该模型首先在Transformer层之前增加一个多注意力融合模块(MAF)来增强位置信息的表达; 然后在跳跃连接中再次结合多注意模块(MAF)使位置信息能够有效地传递到解码器一侧; 最后在解码阶段使用深度卷积注意力模块(DCA)保留更多的空间信息. 实验结果显示, MAF-TransUNet相较TransUNet在Synapse多器官分割数据集和ACDC自动心脏诊断数据集上的Dice系数分别提升了3.54%和0.88%.

    Abstract:

    Accurate identification of tissues, organs, and lesion regions is one of the most important tasks in medical image analysis. Models based on the U-Net structure dominate the existing research on semantic segmentation of medical images. Combining the advantages of CNN and Transformer, TransUNet has superiority in capturing long-range dependencies and extracting local features, but it is still not accurate enough in extracting and recovering the locations of features. To address this problem, a medical image segmentation model MAF-TransUNet with a multi-attention fusion mechanism is proposed. The model first adds a multi-attention fusion module (MAF) before the Transformer layer to enhance the representation of location information. Then it combines the MAF again in the hopping connection so that the location information can be efficiently transmitted to the decoder side. Finally, the deep convolutional attention module (DCA) is used in the decoding stage to retain more spatial information. The experimental results show that MAF-TransUNet improves the Dice coefficients on the Synapse multi-organ segmentation dataset and ACDC automated cardiac diagnostic dataset by 3.54% and 0.88%, respectively, compared with TransUNet.

    参考文献
    相似文献
    引证文献
引用本文

赵亮,赵雨祺,金海波.多注意力融合的TransUNet医学影像分割模型.计算机系统应用,,():1-13

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2024-10-22
  • 最后修改日期:2024-11-12
  • 在线发布日期: 2025-03-24
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号