Disentangled Representation Learning for Multimodal Emotion Recognition

模式 计算机科学 模态(人机交互) 人工智能 线性子空间 特征学习 多模式学习 编码器 冗余(工程) 代表(政治) 特征(语言学) 机器学习 自然语言处理 模式识别(心理学) 数学 几何学 语言学 政治学 法学 社会科学 社会学 哲学 操作系统 政治
作者
Dingkang Yang,Shuai Huang,Haopeng Kuang,Yangtao Du,Lihua Zhang
标识
DOI:10.1145/3503161.3547754
摘要

Multimodal emotion recognition aims to identify human emotions from text, audio, and visual modalities. Previous methods either explore correlations between different modalities or design sophisticated fusion strategies. However, the serious problem is that the distribution gap and information redundancy often exist across heterogeneous modalities, resulting in learned multimodal representations that may be unrefined. Motivated by these observations, we propose a Feature-Disentangled Multimodal Emotion Recognition (FDMER) method, which learns the common and private feature representations for each modality. Specifically, we design the common and private encoders to project each modality into modality-invariant and modality-specific subspaces, respectively. The modality-invariant subspace aims to explore the commonality among different modalities and reduce the distribution gap sufficiently. The modality-specific subspaces attempt to enhance the diversity and capture the unique characteristics of each modality. After that, a modality discriminator is introduced to guide the parameter learning of the common and private encoders in an adversarial manner. We achieve the modality consistency and disparity constraints by designing tailored losses for the above subspaces. Furthermore, we present a cross-modal attention fusion module to learn adaptive weights for obtaining effective multimodal representations. The final representation is used for different downstream tasks. Experimental results show that the FDMER outperforms the state-of-the-art methods on two multimodal emotion recognition benchmarks. Moreover, we further verify the effectiveness of our model via experiments on the multimodal humor detection task.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
复杂念梦发布了新的文献求助10
1秒前
陶醉的妖丽完成签到 ,获得积分10
2秒前
时光交错讲不清完成签到,获得积分10
2秒前
3秒前
念初完成签到 ,获得积分10
9秒前
Tingshan完成签到,获得积分10
12秒前
囚穆完成签到 ,获得积分10
13秒前
16秒前
热心不凡完成签到,获得积分10
16秒前
小白完成签到 ,获得积分10
19秒前
20秒前
风起枫落完成签到 ,获得积分10
22秒前
小美完成签到 ,获得积分10
22秒前
radio完成签到 ,获得积分10
23秒前
BPCXK完成签到,获得积分10
27秒前
27秒前
shy完成签到,获得积分10
29秒前
Zz完成签到 ,获得积分10
31秒前
xinru完成签到,获得积分20
31秒前
程程完成签到,获得积分10
32秒前
隐形芹完成签到 ,获得积分10
32秒前
33秒前
shinysparrow应助周小笛采纳,获得10
34秒前
35秒前
Getlogger完成签到,获得积分10
36秒前
现代乌龟完成签到,获得积分10
37秒前
听闻完成签到,获得积分10
38秒前
zhangzhangzhang完成签到 ,获得积分10
39秒前
xinru发布了新的文献求助10
40秒前
41秒前
Echo完成签到,获得积分10
41秒前
科研垃圾发布了新的文献求助10
42秒前
42秒前
huzi完成签到,获得积分10
43秒前
MMM发布了新的文献求助10
44秒前
王翎力完成签到 ,获得积分10
44秒前
skepticalsnails完成签到,获得积分10
49秒前
Willow完成签到,获得积分10
52秒前
blUe完成签到,获得积分10
54秒前
victory_liu完成签到,获得积分10
56秒前
高分求助中
请在求助之前详细阅读求助说明!!!! 20000
Sphäroguß als Werkstoff für Behälter zur Beförderung, Zwischen- und Endlagerung radioaktiver Stoffe - Untersuchung zu alternativen Eignungsnachweisen: Zusammenfassender Abschlußbericht 1500
One Man Talking: Selected Essays of Shao Xunmei, 1929–1939 1000
Yuwu Song, Biographical Dictionary of the People's Republic of China 700
[Lambert-Eaton syndrome without calcium channel autoantibodies] 520
The Three Stars Each: The Astrolabes and Related Texts 500
A radiographic standard of reference for the growing knee 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2468984
求助须知:如何正确求助?哪些是违规求助? 2136224
关于积分的说明 5442941
捐赠科研通 1860822
什么是DOI,文献DOI怎么找? 925477
版权声明 562694
科研通“疑难数据库(出版商)”最低求助积分说明 495093