亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

MInD: Improving Multimodal Sentiment Analysis via Multimodal Information Disentanglement

计算机科学 模式 编码器 人工智能 多模式学习 模态(人机交互) 组分(热力学) 水准点(测量) 任务(项目管理) 机器学习 社会科学 物理 管理 大地测量学 社会学 经济 热力学 地理 操作系统
作者
Weichen Dai,Xingyu Li,Pengbo Hu,Zeyu Wang,Ji Qi,Jianlin Peng,Yi Zhou
出处
期刊:Cornell University - arXiv 被引量:2
标识
DOI:10.48550/arxiv.2401.11818
摘要

Learning effective joint representations has been a central task in multimodal sentiment analysis. Previous methods focus on leveraging the correlations between different modalities and enhancing performance through sophisticated fusion techniques. However, challenges still exist due to the inherent heterogeneity of distinct modalities, which may lead to distributional gap, impeding the full exploitation of inter-modal information and resulting in redundancy and impurity in the information extracted from features. To address this problem, we introduce the Multimodal Information Disentanglement (MInD) approach. MInD decomposes the multimodal inputs into a modality-invariant component, a modality-specific component, and a remnant noise component for each modality through a shared encoder and multiple private encoders. The shared encoder aims to explore the shared information and commonality across modalities, while the private encoders are deployed to capture the distinctive information and characteristic features. These representations thus furnish a comprehensive perspective of the multimodal data, facilitating the fusion process instrumental for subsequent prediction tasks. Furthermore, MInD improves the learned representations by explicitly modeling the task-irrelevant noise in an adversarial manner. Experimental evaluations conducted on benchmark datasets, including CMU-MOSI, CMU-MOSEI, and UR-Funny, demonstrate MInD's superior performance over existing state-of-the-art methods in both multimodal emotion recognition and multimodal humor detection tasks.

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
8秒前
8秒前
正直的大树完成签到,获得积分10
10秒前
zm发布了新的文献求助10
17秒前
SciGPT应助吃鱼采纳,获得10
22秒前
量子星尘发布了新的文献求助10
31秒前
暴走的烤包子完成签到 ,获得积分0
31秒前
zm完成签到,获得积分10
33秒前
科研通AI5应助科研通管家采纳,获得10
50秒前
科研通AI5应助科研通管家采纳,获得10
50秒前
科研通AI2S应助科研通管家采纳,获得10
50秒前
英姑应助科研通管家采纳,获得10
50秒前
情怀应助科研通管家采纳,获得10
50秒前
量子星尘发布了新的文献求助10
55秒前
bkagyin应助ss25采纳,获得100
1分钟前
打打应助我的小k8采纳,获得10
1分钟前
科研通AI2S应助sino-ft采纳,获得10
1分钟前
1分钟前
Ocean完成签到,获得积分10
1分钟前
量子星尘发布了新的文献求助10
1分钟前
我的小k8发布了新的文献求助10
1分钟前
ltt完成签到,获得积分10
1分钟前
我的小k8完成签到,获得积分20
1分钟前
本本完成签到 ,获得积分10
2分钟前
量子星尘发布了新的文献求助10
2分钟前
木木子发布了新的文献求助10
2分钟前
2分钟前
2分钟前
量子星尘发布了新的文献求助10
2分钟前
自然的方盒完成签到,获得积分20
2分钟前
Jasper应助水刃木采纳,获得10
2分钟前
爱静静完成签到,获得积分0
3分钟前
丸子完成签到 ,获得积分10
3分钟前
yangzai完成签到 ,获得积分10
3分钟前
量子星尘发布了新的文献求助10
3分钟前
anne完成签到 ,获得积分10
3分钟前
隐形曼青应助27小天使采纳,获得30
3分钟前
木木子发布了新的文献求助10
3分钟前
心随以动完成签到 ,获得积分10
3分钟前
高分求助中
Africanfuturism: African Imaginings of Other Times, Spaces, and Worlds 3000
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 2000
The Oxford Encyclopedia of the History of Modern Psychology 2000
Synthesis of 21-Thioalkanoic Acids of Corticosteroids 1000
Electron microscopy study of magnesium hydride (MgH2) for Hydrogen Storage 1000
Applied Survey Data Analysis (第三版, 2025) 850
Structural Equation Modeling of Multiple Rater Data 700
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3885786
求助须知:如何正确求助?哪些是违规求助? 3427865
关于积分的说明 10757116
捐赠科研通 3152723
什么是DOI,文献DOI怎么找? 1740596
邀请新用户注册赠送积分活动 840305
科研通“疑难数据库(出版商)”最低求助积分说明 785302