亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

MulFS-CAP: Multimodal Fusion-supervised Cross-modality Alignment Perception for Unregistered Infrared-visible Image Fusion

人工智能 图像融合 融合 计算机视觉 模态(人机交互) 计算机科学 模式识别(心理学) 传感器融合 图像(数学) 语言学 哲学
作者
Huafeng Li,Zhijia Yang,Yafei Zhang,Wei Jia,Zhengtao Yu,Yü Liu
出处
期刊:IEEE Transactions on Pattern Analysis and Machine Intelligence [IEEE Computer Society]
卷期号:: 1-18 被引量:16
标识
DOI:10.1109/tpami.2025.3535617
摘要

In this study, we propose Multimodal Fusion-supervised Cross-modality Alignment Perception (MulFS-CAP), a novel framework for single-stage fusion of unregistered infrared-visible images. Traditional two-stage methods depend on explicit registration algorithms to align source images spatially, often adding complexity. In contrast, MulFS-CAP seamlessly blends implicit registration with fusion, simplifying the process and enhancing suitability for practical applications. MulFS-CAP utilizes a shared shallow feature encoder to merge unregistered infrared-visible images in a single stage. To address the specific requirements of feature-level alignment and fusion, we develop a consistent feature learning approach via a learnable modality dictionary. This dictionary provides complementary information for unimodal features, thereby maintaining consistency between individual and fused multimodal features. As a result, MulFS-CAP effectively reduces the impact of modality variance on cross-modality feature alignment, allowing for simultaneous registration and fusion. Additionally, in MulFS-CAP, we advance a novel cross-modality alignment approach, creating a correlation matrix to detail pixel relationships between source images. This matrix aids in aligning features across infrared and visible images, further refining the fusion process. The above designs make MulFS-CAP more lightweight, effective and explicit registration-free. Experimental results from different datasets demonstrate the effectiveness of our proposed method and its superiority over the state-of-the-art two-stage methods. The source code of our method is available at https://github.com/YR0211/MulFS-CAP.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
16秒前
mingjiang完成签到,获得积分10
18秒前
mingjiang发布了新的文献求助10
22秒前
Ephemerality完成签到 ,获得积分10
29秒前
31秒前
华仔应助纯白采纳,获得10
40秒前
41秒前
flyinthesky完成签到,获得积分10
44秒前
50秒前
纯白发布了新的文献求助10
54秒前
HC完成签到,获得积分10
55秒前
馆长举报核桃求助涉嫌违规
1分钟前
李健应助纯白采纳,获得10
1分钟前
张晓祁完成签到,获得积分10
1分钟前
伊戈达拉一个大拉完成签到 ,获得积分10
1分钟前
1分钟前
yueying完成签到,获得积分10
1分钟前
1分钟前
昏睡的乌冬面完成签到 ,获得积分10
1分钟前
天天快乐应助聂难敌采纳,获得10
1分钟前
超级白玉发布了新的文献求助10
1分钟前
1分钟前
小蘑菇应助超级白玉采纳,获得10
1分钟前
2分钟前
纯白发布了新的文献求助10
2分钟前
2分钟前
gumiho1007完成签到 ,获得积分10
2分钟前
聂难敌发布了新的文献求助10
2分钟前
聂难敌完成签到,获得积分10
2分钟前
乐乐应助纯白采纳,获得10
2分钟前
testmanfuxk完成签到,获得积分10
2分钟前
汉堡包应助于飞采纳,获得10
2分钟前
纯白完成签到,获得积分20
2分钟前
cloris完成签到,获得积分10
2分钟前
2分钟前
科研通AI5应助lezbj99采纳,获得10
3分钟前
江上清风发布了新的文献求助10
3分钟前
LRxxx完成签到 ,获得积分10
3分钟前
3分钟前
3分钟前
高分求助中
(应助此贴封号)【重要!!请各位详细阅读】【科研通的精品贴汇总】 10000
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 3000
F-35B V2.0 How to build Kitty Hawk's F-35B Version 2.0 Model 2500
줄기세포 생물학 1000
The Netter Collection of Medical Illustrations: Digestive System, Volume 9, Part III - Liver, Biliary Tract, and Pancreas (3rd Edition) 600
INQUIRY-BASED PEDAGOGY TO SUPPORT STEM LEARNING AND 21ST CENTURY SKILLS: PREPARING NEW TEACHERS TO IMPLEMENT PROJECT AND PROBLEM-BASED LEARNING 500
2025-2031全球及中国蛋黄lgY抗体行业研究及十五五规划分析报告(2025-2031 Global and China Chicken lgY Antibody Industry Research and 15th Five Year Plan Analysis Report) 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4484253
求助须知:如何正确求助?哪些是违规求助? 3940118
关于积分的说明 12220212
捐赠科研通 3595538
什么是DOI,文献DOI怎么找? 1977363
邀请新用户注册赠送积分活动 1014414
科研通“疑难数据库(出版商)”最低求助积分说明 907562