Self-Supervised Correlation Learning for Cross-Modal Retrieval

计算机科学 判别式 模态(人机交互) 人工智能 特征学习 机器学习 水准点(测量) 情态动词 无监督学习 利用 相互信息 相关性 模式识别(心理学) 计算机安全 数学 几何学 大地测量学 化学 高分子化学 地理
作者
Yaxin Liu,Jianlong Wu,Leigang Qu,Tian Gan,Jianhua Yin,Liqiang Nie
出处
期刊:IEEE Transactions on Multimedia [Institute of Electrical and Electronics Engineers]
卷期号:25: 2851-2863 被引量:31
标识
DOI:10.1109/tmm.2022.3152086
摘要

Cross-modal retrieval aims to retrieve relevant data from another modality when given a query of one modality. Although most existing methods that rely on the label information of multimedia data have achieved promising results, the performance benefiting from labeled data comes at a high cost since labeling data often requires enormous labor resources, especially on large-scale multimedia datasets. Therefore, unsupervised cross-modal learning is of crucial importance in real-world applications. In this paper, we propose a novel unsupervised cross-modal retrieval method, named Self-supervised Correlation Learning (SCL), which takes full advantage of large amounts of unlabeled data to learn discriminative and modality-invariant representations. Since unsupervised learning lacks the supervision of category labels, we incorporate the knowledge from the input as a supervisory signal by maximizing the mutual information between the input and the output of different modality-specific projectors. Besides, for the purpose of learning discriminative representations, we exploit unsupervised contrastive learning to model the relationship among intra- and inter-modality instances, which makes similar samples closer and pushes dissimilar samples apart. Moreover, to further eliminate the modality gap, we use a weight-sharing scheme and minimize the modality-invariant loss in the joint representation space. Beyond that, we also extend the proposed method to the semi-supervised setting. Extensive experiments conducted on three widely-used benchmark datasets demonstrate that our method achieves competitive results compared with current state-of-the-art cross-modal retrieval approaches.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
chiien完成签到 ,获得积分10
1秒前
huokuoluo完成签到,获得积分10
2秒前
火龙果88完成签到,获得积分10
3秒前
宗佳茹完成签到,获得积分10
3秒前
梁正凤发布了新的文献求助10
3秒前
耍酷的雪糕完成签到,获得积分10
4秒前
鲲鹏完成签到 ,获得积分10
4秒前
郑浩完成签到,获得积分10
5秒前
贪玩的半仙完成签到,获得积分10
5秒前
yuan完成签到,获得积分10
5秒前
弈天完成签到 ,获得积分10
6秒前
6秒前
乐乐乐发布了新的文献求助10
6秒前
6秒前
wenbin完成签到,获得积分10
6秒前
在水一方应助LIZHEN采纳,获得10
6秒前
fancy完成签到 ,获得积分10
8秒前
廉泽完成签到,获得积分10
9秒前
小爱同学发布了新的文献求助10
10秒前
踏实的烙完成签到,获得积分10
11秒前
dayday应助36456657采纳,获得50
11秒前
枕月听松完成签到,获得积分10
12秒前
12秒前
13秒前
Peter完成签到 ,获得积分10
13秒前
桥豆麻袋完成签到,获得积分10
13秒前
光亮千易完成签到,获得积分10
14秒前
刘文辉完成签到,获得积分10
15秒前
16秒前
乐乐乐完成签到,获得积分10
16秒前
强小强努力努力完成签到,获得积分10
17秒前
18秒前
美丽的芙完成签到 ,获得积分10
18秒前
繁荣的安白完成签到 ,获得积分10
18秒前
TANG发布了新的文献求助10
18秒前
ninenai00099完成签到 ,获得积分10
18秒前
Aoia完成签到,获得积分10
19秒前
如是完成签到,获得积分10
20秒前
慕辰完成签到 ,获得积分10
20秒前
21秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Kinesiophobia : a new view of chronic pain behavior 2000
Cronologia da história de Macau 1600
BRITTLE FRACTURE IN WELDED SHIPS 1000
Lloyd's Register of Shipping's Approach to the Control of Incidents of Brittle Fracture in Ship Structures 1000
Developmental Peace: Theorizing China’s Approach to International Peacebuilding 1000
Traitements Prothétiques et Implantaires de l'Édenté total 2.0 1000
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 纳米技术 计算机科学 化学工程 生物化学 物理 复合材料 内科学 催化作用 物理化学 光电子学 细胞生物学 基因 电极 遗传学
热门帖子
关注 科研通微信公众号,转发送积分 6136247
求助须知:如何正确求助?哪些是违规求助? 7963339
关于积分的说明 16526876
捐赠科研通 5251142
什么是DOI,文献DOI怎么找? 2803903
邀请新用户注册赠送积分活动 1784931
关于科研通互助平台的介绍 1655514