Cross-modal Guided Visual Representation Learning for Social Image Retrieval

人工智能 计算机科学 情态动词 计算机视觉 代表(政治) 图像检索 模式识别(心理学) 图像(数学) 化学 政治 政治学 高分子化学 法学
作者
Ziyu Guan,Wanqing Zhao,Hongmin Liu,Yuta Nakashima,Noboru Babaguchi,Xiaofei He
出处
期刊:IEEE Transactions on Pattern Analysis and Machine Intelligence [IEEE Computer Society]
卷期号:47 (3): 2186-2198
标识
DOI:10.1109/tpami.2024.3519112
摘要

Social images are often associated with rich but noisy tags from community contributions. Although social tags can potentially provide valuable semantic training information for image retrieval, existing studies all fail to effectively filter noises by exploiting the cross-modal correlation between image content and tags. The current cross-modal vision-and-language representation learning methods, which selectively attend to the relevant parts of the image and text, show a promising direction. However, they are not suitable for social image retrieval since: (1) they deal with natural text sequences where the relationships between words can be easily captured by language models for cross-modal relevance estimation, while the tags are isolated and noisy; (2) they take (image, text) pair as input, and consequently cannot be employed directly for unimodal social image retrieval. This paper tackles the challenge of utilizing cross-modal interactions to learn precise representations for unimodal retrieval. The proposed framework, dubbed CGVR (Cross-modal Guided Visual Representation), extracts accurate semantic representations of images from noisy tags and transfers this ability to image-only hashing subnetwork by a carefully designed training scheme. To well capture correlated semantics and filter noises, it embeds a priori common-sense relationship among tags into attention computation for joint awareness of textual and visual context. Experiments show that CGVR achieves approximately 8.82 and 5.45 points improvement in MAP over the state-of-the-art on two widely used social image benchmarks. CGVR can serve as a new baseline for the image retrieval community. The code is provided at https://github.com/zhaowanqing/CGVR.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
娇娇大王完成签到,获得积分10
3秒前
背后的白山完成签到,获得积分10
4秒前
7秒前
hcdb完成签到,获得积分10
7秒前
葱油饼完成签到 ,获得积分10
9秒前
科研通AI5应助Echo_1995采纳,获得10
9秒前
量子星尘发布了新的文献求助10
10秒前
嘻嘻完成签到 ,获得积分10
10秒前
lx完成签到,获得积分10
14秒前
小伊001完成签到,获得积分10
15秒前
shuangfeng1853完成签到 ,获得积分10
15秒前
fisheepyy完成签到,获得积分10
16秒前
传奇3应助科研通管家采纳,获得10
17秒前
17秒前
Regina完成签到 ,获得积分10
18秒前
xiaofeiyan完成签到 ,获得积分10
25秒前
小白完成签到 ,获得积分10
29秒前
Ashley完成签到 ,获得积分10
29秒前
任性的皮卡丘完成签到 ,获得积分10
31秒前
衣蝉完成签到 ,获得积分10
34秒前
Hello应助Chong采纳,获得10
39秒前
尼可刹米洛贝林完成签到,获得积分10
40秒前
moonlimb完成签到 ,获得积分10
41秒前
zhugao完成签到,获得积分10
41秒前
呼呼完成签到 ,获得积分10
44秒前
忧伤的绍辉完成签到 ,获得积分10
45秒前
五月完成签到 ,获得积分10
46秒前
小雨点完成签到 ,获得积分10
46秒前
虚拟的水之完成签到 ,获得积分10
48秒前
48秒前
小花生完成签到 ,获得积分10
52秒前
Chong完成签到,获得积分10
54秒前
迅速千愁完成签到 ,获得积分10
55秒前
xyz完成签到 ,获得积分10
56秒前
执着的忆雪完成签到 ,获得积分10
59秒前
shadow完成签到,获得积分10
1分钟前
粗犷的凌兰完成签到,获得积分10
1分钟前
kk完成签到 ,获得积分10
1分钟前
量子星尘发布了新的文献求助10
1分钟前
mm完成签到 ,获得积分10
1分钟前
高分求助中
A new approach to the extrapolation of accelerated life test data 1000
Picture Books with Same-sex Parented Families: Unintentional Censorship 700
ACSM’s Guidelines for Exercise Testing and Prescription, 12th edition 500
Nucleophilic substitution in azasydnone-modified dinitroanisoles 500
不知道标题是什么 500
Indomethacinのヒトにおける経皮吸収 400
Phylogenetic study of the order Polydesmida (Myriapoda: Diplopoda) 370
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 3976735
求助须知:如何正确求助?哪些是违规求助? 3520831
关于积分的说明 11204920
捐赠科研通 3257679
什么是DOI,文献DOI怎么找? 1798814
邀请新用户注册赠送积分活动 877897
科研通“疑难数据库(出版商)”最低求助积分说明 806663