清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

Hybrid cross-modal interaction learning for multimodal sentiment analysis

计算机科学 情态动词 情绪分析 模式 水准点(测量) 人工智能 特征(语言学) 自然语言处理 机器学习 光学(聚焦) 语音识别 语言学 社会科学 化学 哲学 物理 大地测量学 社会学 高分子化学 光学 地理
作者
Yanping Fu,Zhiyuan Zhang,Ruidi Yang,Cuiyou Yao
出处
期刊:Neurocomputing [Elsevier]
卷期号:571: 127201-127201
标识
DOI:10.1016/j.neucom.2023.127201
摘要

Multimodal sentiment analysis (MSA) predicts the sentiment polarity of an unlabeled utterance that carries multiple modalities, such as text, vision and audio, by analyzing labeled utterances. Existing fusion methods mainly focus on establishing the relationship of characteristics among different modalities to enhance their emotion recognition abilities. However, they always ignore the all-round interaction between different modalities, especially the cross-modal interaction, which is critical to the sentiment decision of multimodal data. To address these issues, we propose a novel hybrid cross-modal interaction learning (HCIL) framework for hybrid learning of intra-modal, inter-modal, interactive-modal and cross-modal interactions, with which the model can fully utilize the sentiment information of multimodatilies and enhance the sentiment assistance between modalities. Specifically, we propose two core substructures to learn discriminative multimodal features. One is the comparative learning interaction structure that can track the class dynamics in the intra-modal, reduce the modal gap in the inter-modal and establish emotional communication in the interactive-modal; the other is the cross-modal prediction structure, which can build the sentiment relationship between cross-modal pairs, especially exploring the auxiliary sentiment effect of audio on the vision and text. Furthermore, we adopt a hierarchical feature fusion structure to generate the multimodal feature for the final sentiment prediction. Extensive experiments on three benchmark datasets showed that our HCIL approach can obtain significant performance on the MSA task and that the design of a cross-modal interaction structure can directly promote the improvement of sentiment classification performance.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
干净山彤完成签到 ,获得积分10
16秒前
1分钟前
赘婿应助科研通管家采纳,获得10
2分钟前
沙海沉戈完成签到,获得积分10
2分钟前
前夜发布了新的文献求助10
3分钟前
前夜完成签到,获得积分10
4分钟前
别找了睡觉吧完成签到 ,获得积分10
4分钟前
刻苦的元风完成签到,获得积分10
4分钟前
wodetaiyangLLL完成签到 ,获得积分10
5分钟前
顾矜应助tufei采纳,获得10
5分钟前
5分钟前
Robin95完成签到 ,获得积分10
5分钟前
飞翔的荷兰人完成签到,获得积分10
6分钟前
清秀LL完成签到 ,获得积分10
6分钟前
6分钟前
tufei发布了新的文献求助10
6分钟前
6分钟前
lunar完成签到 ,获得积分10
7分钟前
naczx完成签到,获得积分10
7分钟前
onevip完成签到,获得积分10
7分钟前
传奇完成签到 ,获得积分10
8分钟前
8分钟前
香蕉觅云应助玲子冰蛋采纳,获得10
8分钟前
森予发布了新的文献求助10
8分钟前
森予完成签到,获得积分10
8分钟前
8分钟前
宇文非笑完成签到 ,获得积分10
8分钟前
玲子冰蛋发布了新的文献求助10
8分钟前
佳佳完成签到,获得积分10
10分钟前
可耐的思远完成签到 ,获得积分10
10分钟前
白菜完成签到 ,获得积分10
11分钟前
方白秋完成签到,获得积分10
11分钟前
小宏完成签到,获得积分10
11分钟前
wx1完成签到 ,获得积分0
11分钟前
彭于晏应助科研通管家采纳,获得10
12分钟前
日暮炊烟完成签到 ,获得积分10
12分钟前
张琦完成签到 ,获得积分10
12分钟前
倪妮完成签到,获得积分10
12分钟前
大荷子她爸完成签到 ,获得积分10
12分钟前
violetlishu完成签到 ,获得积分10
14分钟前
高分求助中
One Man Talking: Selected Essays of Shao Xunmei, 1929–1939 1000
Yuwu Song, Biographical Dictionary of the People's Republic of China 800
Herman Melville: A Biography (Volume 1, 1819-1851) 600
Multifunctional Agriculture, A New Paradigm for European Agriculture and Rural Development 600
The Illustrated History of Gymnastics 500
Division and square root. Digit-recurrence algorithms and implementations 500
Hemerologies of Assyrian and Babylonian Scholars 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2495659
求助须知:如何正确求助?哪些是违规求助? 2152630
关于积分的说明 5500805
捐赠科研通 1873451
什么是DOI,文献DOI怎么找? 931697
版权声明 563562
科研通“疑难数据库(出版商)”最低求助积分说明 498004