HCA-former: Hybrid Convolution Attention Transformer for 3D Medical Image Segmentation

计算机科学 分割 人工智能 卷积神经网络 编码器 变压器 图像分割 深度学习 模式识别(心理学) 计算机视觉 工程类 电压 操作系统 电气工程
作者
Fan Yang,Fan Wang,Pengwei Dong,Wang Bo
出处
期刊:Biomedical Signal Processing and Control [Elsevier BV]
卷期号:90: 105834-105834 被引量:3
标识
DOI:10.1016/j.bspc.2023.105834
摘要

In recent years, Transformers have achieved success in the field of medical image segmentation due to their outstanding capability to model long-range dependencies. However, many existing segmentation methods only use Transformer as an auxiliary module to capture global context information in images, limiting the potential of the Transformers. Additionally, self-attention mechanism within the Transformers can lead to attention collapse issues, thus triggering semantic gap between the encoder and decoder. Furthermore, most networks have difficulties in effectively handling multi-scale and multi-channel feature information. To address the above problems, we propose a hybrid Convolutional Neural Networks (CNNs) and Transformers method for medical image segmentation (HCA-Former). We design a local multi-channel attention block (LMCA) to effectively combine the features of CNN and Transformers, enabling multi-channel information extraction and interaction. Using the Double-Former Block (DFB) alleviates the semantic gap between the encoder and decoder, restoring more detailed information. Moreover, the utilization of the global multi-scale attention block (GMSA) can establish information interaction among multi-scale targets, thereby enhancing generalization capability of the model. To validate the effectiveness of our approach, we evaluate the proposed method on three challenging tasks: the MICCAI 2015 Multi-Image Abdominal Marker Challenge (Synapse), Automated Cardiac Diagnosis Dataset (ACDC), and Medical Segmentation Decathlon Brain Tumor Segmentation (MSD brain tumor). Extensive experiments demonstrate that our HCA-Former achieved competitive or better performance than state-of-the-art approaches for 3D medical image segmentation.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
东北饿霸完成签到,获得积分10
2秒前
阿包完成签到 ,获得积分10
2秒前
笑林完成签到 ,获得积分10
13秒前
福缘完成签到,获得积分10
13秒前
丘比特应助丽莉采纳,获得10
16秒前
ajiduo完成签到 ,获得积分10
17秒前
朴实云应完成签到,获得积分10
18秒前
量子星尘发布了新的文献求助10
20秒前
w32完成签到,获得积分10
23秒前
科研通AI2S应助娜娜子采纳,获得10
23秒前
瘦瘦的枫叶完成签到 ,获得积分10
23秒前
风不尽,树不静完成签到 ,获得积分0
25秒前
Kayla完成签到 ,获得积分10
29秒前
ru完成签到 ,获得积分10
29秒前
丽莉完成签到,获得积分20
29秒前
31秒前
缓慢的微笑完成签到 ,获得积分10
39秒前
gwbk完成签到,获得积分10
40秒前
43秒前
坚定小熊猫完成签到,获得积分20
44秒前
曾经不评发布了新的文献求助10
48秒前
lyx完成签到 ,获得积分10
49秒前
丰知然应助坚定小熊猫采纳,获得20
50秒前
量子星尘发布了新的文献求助10
51秒前
资白玉完成签到 ,获得积分10
51秒前
胡周瑜完成签到 ,获得积分10
51秒前
马大翔完成签到,获得积分0
52秒前
饱满的棒棒糖完成签到 ,获得积分10
53秒前
xmqaq完成签到,获得积分10
54秒前
苹果柜子完成签到 ,获得积分10
54秒前
reflux应助科研通管家采纳,获得10
58秒前
8R60d8应助科研通管家采纳,获得10
58秒前
reflux应助科研通管家采纳,获得10
58秒前
8R60d8应助科研通管家采纳,获得10
58秒前
8R60d8应助科研通管家采纳,获得10
58秒前
reflux应助科研通管家采纳,获得10
58秒前
科研通AI2S应助科研通管家采纳,获得10
58秒前
8R60d8应助科研通管家采纳,获得10
58秒前
reflux应助科研通管家采纳,获得10
58秒前
8R60d8应助科研通管家采纳,获得10
58秒前
高分求助中
Africanfuturism: African Imaginings of Other Times, Spaces, and Worlds 3000
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 2000
The Oxford Encyclopedia of the History of Modern Psychology 2000
Synthesis of 21-Thioalkanoic Acids of Corticosteroids 1000
Electron microscopy study of magnesium hydride (MgH2) for Hydrogen Storage 1000
Applied Survey Data Analysis (第三版, 2025) 850
Structural Equation Modeling of Multiple Rater Data 700
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3885956
求助须知:如何正确求助?哪些是违规求助? 3427966
关于积分的说明 10757269
捐赠科研通 3152784
什么是DOI,文献DOI怎么找? 1740660
邀请新用户注册赠送积分活动 840338
科研通“疑难数据库(出版商)”最低求助积分说明 785317