CiteNet: Cross-modal incongruity perception network for multimodal sentiment prediction

情态动词 多模态 模态(人机交互) 感知 代表(政治) 情绪分析 透视图(图形) 机器学习 计算机科学 边距(机器学习) 人工智能 自然语言处理 模式识别(心理学) 神经科学 化学 高分子化学 政治 万维网 政治学 法学 生物
作者
Jie Wang,Yan Yang,Keyu Liu,Zhuyang Xie,Fan Zhang,Tianrui Li
出处
期刊:Knowledge Based Systems [Elsevier BV]
卷期号:295: 111848-111848 被引量:3
标识
DOI:10.1016/j.knosys.2024.111848
摘要

Multimodal sentiment prediction poses a formidable challenge that necessitates a profound understanding of both visual and linguistic cues, as well as the intricate interactions between them. The current achievements of modern systems in this domain can plausibly be attributed to the development of sophisticated cross-modal fusion techniques. Nevertheless, such solutions often handle each modality equally, neglecting the discordant predictions arising from sentiment incongruity in unimodal sources, which may result in performance degradation in conventional extraction-fusion scenarios. In this work, we take a different route–introducing an extraction-estimation-fusion paradigm aimed at exploring more reliable multimodal representations under the supervision of unimodal sentiment prediction. To this end, we propose a Cross-modal IncongruiTy pErception NETwork, named CiteNet, for multimodal sentiment detection. In CiteNet, we initially develop a cross-modal alignment module tailored to synchronize modality-specific representations through contrastive learning. Subsequently, with a refined cross-modal integration module, CiteNet can achieve a synergistic and comprehensive multimodal representation. In addition, we explore a cross-modal incongruity learning module from an information-theoretic perspective, capable of estimating inherent sentiment disparities by analyzing modal distributions. This incongruity score is then employed as a crucial factor in the adaptive fusion of unimodal and multimodal representations, culminating in enhanced accuracy in sentiment prediction. Experimental results on two datasets demonstrate that CiteNet outperforms prior methods by a significant margin of approximately 1%–11% in accuracy.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
柯米克发布了新的文献求助10
1秒前
hello发布了新的文献求助10
2秒前
完美世界应助青人采纳,获得10
3秒前
3秒前
智博36发布了新的文献求助10
4秒前
qweasdzxc发布了新的文献求助10
4秒前
所所应助yyy采纳,获得30
5秒前
6秒前
斯文败类应助柯米克采纳,获得10
6秒前
paul完成签到,获得积分10
6秒前
CodeCraft应助家伟采纳,获得10
7秒前
yangican完成签到,获得积分10
7秒前
充电宝应助hello采纳,获得10
8秒前
小马甲应助kuikui1100采纳,获得10
8秒前
FashionBoy应助菠萝萝萝王子采纳,获得10
9秒前
Robbins发布了新的文献求助10
9秒前
airslake发布了新的文献求助20
9秒前
科研王完成签到 ,获得积分10
10秒前
10秒前
10秒前
12秒前
13秒前
13秒前
又见三皮完成签到,获得积分10
13秒前
14秒前
冰海发布了新的文献求助20
14秒前
14秒前
情怀应助薛建伟采纳,获得10
14秒前
隐形曼青应助今夜不设防采纳,获得10
15秒前
haveatry发布了新的文献求助30
15秒前
酷波er应助高兴123采纳,获得10
15秒前
15秒前
15秒前
15秒前
16秒前
星星的梦发布了新的文献求助20
16秒前
刘芳菲发布了新的文献求助10
16秒前
小蘑菇完成签到,获得积分10
17秒前
星期八发布了新的文献求助10
17秒前
高分求助中
ФОРМИРОВАНИЕ АО "МЕЖДУНАРОДНАЯ КНИГА" КАК ВАЖНЕЙШЕЙ СИСТЕМЫ ОТЕЧЕСТВЕННОГО КНИГОРАСПРОСТРАНЕНИЯ 3000
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 2500
Future Approaches to Electrochemical Sensing of Neurotransmitters 1000
Electron microscopy study of magnesium hydride (MgH2) for Hydrogen Storage 1000
Finite Groups: An Introduction 800
生物降解型栓塞微球市场(按产品类型、应用和最终用户)- 2030 年全球预测 500
Thermal Expansion of Solids (CINDAS Data Series on Material Properties, v. I-4) 470
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3906347
求助须知:如何正确求助?哪些是违规求助? 3452119
关于积分的说明 10867630
捐赠科研通 3177567
什么是DOI,文献DOI怎么找? 1755510
邀请新用户注册赠送积分活动 848801
科研通“疑难数据库(出版商)”最低求助积分说明 791297