Hybrid cross-modal interaction learning for multimodal sentiment analysis

计算机科学 情态动词 情绪分析 模式 水准点(测量) 人工智能 特征(语言学) 自然语言处理 机器学习 光学(聚焦) 语音识别 语言学 社会学 哲学 化学 物理 高分子化学 光学 地理 社会科学 大地测量学
作者
Yanping Fu,Zhiyuan Zhang,Ruidi Yang,Cuiyou Yao
出处
期刊:Neurocomputing [Elsevier BV]
卷期号:571: 127201-127201 被引量:12
标识
DOI:10.1016/j.neucom.2023.127201
摘要

Multimodal sentiment analysis (MSA) predicts the sentiment polarity of an unlabeled utterance that carries multiple modalities, such as text, vision and audio, by analyzing labeled utterances. Existing fusion methods mainly focus on establishing the relationship of characteristics among different modalities to enhance their emotion recognition abilities. However, they always ignore the all-round interaction between different modalities, especially the cross-modal interaction, which is critical to the sentiment decision of multimodal data. To address these issues, we propose a novel hybrid cross-modal interaction learning (HCIL) framework for hybrid learning of intra-modal, inter-modal, interactive-modal and cross-modal interactions, with which the model can fully utilize the sentiment information of multimodalities and enhance the sentiment assistance between modalities. Specifically, we propose two core substructures to learn discriminative multimodal features. One is the comparative learning interaction structure that can track the class dynamics in the intra-modal, reduce the modal gap in the inter-modal and establish emotional communication in the interactive-modal; the other is the cross-modal prediction structure, which can build the sentiment relationship between cross-modal pairs, especially exploring the auxiliary sentiment effect of audio on the vision and text. Furthermore, we adopt a hierarchical feature fusion structure to generate the multimodal feature for the final sentiment prediction. Extensive experiments on three benchmark datasets showed that our HCIL approach can obtain significant performance on the MSA task and that the design of a cross-modal interaction structure can directly promote the improvement of sentiment classification performance.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
2秒前
稳稳发布了新的文献求助10
3秒前
5秒前
忐忑的康完成签到 ,获得积分10
6秒前
7秒前
木云浅夏发布了新的文献求助10
9秒前
LANER完成签到,获得积分10
9秒前
烟花应助TT2022采纳,获得10
11秒前
Doctor甜发布了新的文献求助10
12秒前
希望天下0贩的0应助yue采纳,获得10
13秒前
彭于晏应助snowskating采纳,获得10
15秒前
17秒前
搜集达人应助俭朴夜香采纳,获得10
20秒前
善良的剑通应助多情老三采纳,获得10
21秒前
LANER发布了新的文献求助10
21秒前
科研通AI5应助大豆cong采纳,获得30
22秒前
22秒前
25秒前
思源应助爱科研的豆芽采纳,获得10
26秒前
snowskating发布了新的文献求助10
27秒前
29秒前
xiao金发布了新的文献求助10
30秒前
爱科研的豆芽完成签到,获得积分10
31秒前
33秒前
yangyog发布了新的文献求助10
33秒前
脸小呆呆发布了新的文献求助10
34秒前
38秒前
myl发布了新的文献求助10
39秒前
40秒前
淡然的蚂蚁完成签到,获得积分10
43秒前
眼睛大的胡萝卜完成签到 ,获得积分10
44秒前
酷波er应助杨震采纳,获得30
46秒前
稳稳完成签到,获得积分10
47秒前
zsyf完成签到,获得积分10
48秒前
科研通AI5应助淡然的蚂蚁采纳,获得10
48秒前
wwho_O完成签到 ,获得积分10
48秒前
51秒前
56秒前
赵欢欢发布了新的文献求助30
57秒前
59秒前
高分求助中
【此为提示信息,请勿应助】请按要求发布求助,避免被关 20000
Encyclopedia of Geology (2nd Edition) 2000
Maneuvering of a Damaged Navy Combatant 650
Периодизация спортивной тренировки. Общая теория и её практическое применение 310
Mixing the elements of mass customisation 300
the MD Anderson Surgical Oncology Manual, Seventh Edition 300
Nucleophilic substitution in azasydnone-modified dinitroanisoles 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3780364
求助须知:如何正确求助?哪些是违规求助? 3325704
关于积分的说明 10224008
捐赠科研通 3040823
什么是DOI,文献DOI怎么找? 1669040
邀请新用户注册赠送积分活动 799013
科研通“疑难数据库(出版商)”最低求助积分说明 758648