Disentangled Representation Learning for Multimodal Emotion Recognition

模式 计算机科学 模态(人机交互) 人工智能 线性子空间 特征学习 多模式学习 编码器 冗余(工程) 代表(政治) 特征(语言学) 机器学习 子空间拓扑 自然语言处理 数学 几何学 语言学 政治学 法学 社会学 哲学 操作系统 政治 社会科学
作者
Dingkang Yang,Shuai Huang,Haopeng Kuang,Yangtao Du,Lihua Zhang
标识
DOI:10.1145/3503161.3547754
摘要

Multimodal emotion recognition aims to identify human emotions from text, audio, and visual modalities. Previous methods either explore correlations between different modalities or design sophisticated fusion strategies. However, the serious problem is that the distribution gap and information redundancy often exist across heterogeneous modalities, resulting in learned multimodal representations that may be unrefined. Motivated by these observations, we propose a Feature-Disentangled Multimodal Emotion Recognition (FDMER) method, which learns the common and private feature representations for each modality. Specifically, we design the common and private encoders to project each modality into modality-invariant and modality-specific subspaces, respectively. The modality-invariant subspace aims to explore the commonality among different modalities and reduce the distribution gap sufficiently. The modality-specific subspaces attempt to enhance the diversity and capture the unique characteristics of each modality. After that, a modality discriminator is introduced to guide the parameter learning of the common and private encoders in an adversarial manner. We achieve the modality consistency and disparity constraints by designing tailored losses for the above subspaces. Furthermore, we present a cross-modal attention fusion module to learn adaptive weights for obtaining effective multimodal representations. The final representation is used for different downstream tasks. Experimental results show that the FDMER outperforms the state-of-the-art methods on two multimodal emotion recognition benchmarks. Moreover, we further verify the effectiveness of our model via experiments on the multimodal humor detection task.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
科研通AI5应助nextconnie采纳,获得10
1秒前
陈朝旧迹完成签到,获得积分10
1秒前
无花果应助虚心海燕采纳,获得10
2秒前
sun发布了新的文献求助30
3秒前
3秒前
KBYer完成签到,获得积分10
3秒前
FashionBoy应助阳阳采纳,获得10
3秒前
许多知识发布了新的文献求助10
4秒前
苏源智完成签到,获得积分10
4秒前
Andy完成签到 ,获得积分10
6秒前
明理晓霜发布了新的文献求助10
8秒前
ZHANGMANLI0422关注了科研通微信公众号
8秒前
M先生发布了新的文献求助30
9秒前
FashionBoy应助许多知识采纳,获得10
10秒前
Poyd完成签到,获得积分10
13秒前
13秒前
故意的傲玉应助tao_blue采纳,获得10
14秒前
14秒前
kid1912完成签到,获得积分0
14秒前
小马甲应助一网小海蜇采纳,获得10
17秒前
专一的笑阳完成签到 ,获得积分10
17秒前
xuesensu完成签到 ,获得积分10
21秒前
豌豆完成签到,获得积分10
22秒前
M先生完成签到,获得积分10
22秒前
23秒前
25秒前
科研通AI5应助sun采纳,获得10
25秒前
shitzu完成签到 ,获得积分10
26秒前
choco发布了新的文献求助10
28秒前
29秒前
李健的小迷弟应助sun采纳,获得10
29秒前
Jzhang应助liyuchen采纳,获得10
29秒前
魏伯安发布了新的文献求助30
29秒前
jjjjjj发布了新的文献求助30
31秒前
32秒前
伯赏诗霜发布了新的文献求助10
32秒前
糟糕的鹏飞完成签到 ,获得积分10
33秒前
33秒前
欢呼凡旋完成签到,获得积分10
34秒前
韩邹光完成签到,获得积分10
36秒前
高分求助中
Continuum Thermodynamics and Material Modelling 3000
Production Logging: Theoretical and Interpretive Elements 2700
Ensartinib (Ensacove) for Non-Small Cell Lung Cancer 1000
Unseen Mendieta: The Unpublished Works of Ana Mendieta 1000
Bacterial collagenases and their clinical applications 800
El viaje de una vida: Memorias de María Lecea 800
Luis Lacasa - Sobre esto y aquello 700
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 量子力学 光电子学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3527998
求助须知:如何正确求助?哪些是违规求助? 3108225
关于积分的说明 9288086
捐赠科研通 2805889
什么是DOI,文献DOI怎么找? 1540195
邀请新用户注册赠送积分活动 716950
科研通“疑难数据库(出版商)”最低求助积分说明 709849