亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Cross-modal Graph Matching Network for Image-text Retrieval

计算机科学 匹配(统计) 情态动词 人工智能 代表(政治) 模式识别(心理学) 图形 关系(数据库) 图像检索 水准点(测量) 图像(数学) 理论计算机科学 数据挖掘 数学 统计 政治 化学 政治学 高分子化学 法学 地理 大地测量学
作者
Yuhao Cheng,Xun Zhu,Jiuchao Qian,Fei Wen,Peilin Liu
出处
期刊:ACM Transactions on Multimedia Computing, Communications, and Applications [Association for Computing Machinery]
卷期号:18 (4): 1-23 被引量:31
标识
DOI:10.1145/3499027
摘要

Image-text retrieval is a fundamental cross-modal task whose main idea is to learn image-text matching. Generally, according to whether there exist interactions during the retrieval process, existing image-text retrieval methods can be classified into independent representation matching methods and cross-interaction matching methods. The independent representation matching methods generate the embeddings of images and sentences independently and thus are convenient for retrieval with hand-crafted matching measures (e.g., cosine or Euclidean distance). As to the cross-interaction matching methods, they achieve improvement by introducing the interaction-based networks for inter-relation reasoning, yet suffer the low retrieval efficiency. This article aims to develop a method that takes the advantages of cross-modal inter-relation reasoning of cross-interaction methods while being as efficient as the independent methods. To this end, we propose a graph-based Cross-modal Graph Matching Network (CGMN) , which explores both intra- and inter-relations without introducing network interaction. In CGMN, graphs are used for both visual and textual representation to achieve intra-relation reasoning across regions and words, respectively. Furthermore, we propose a novel graph node matching loss to learn fine-grained cross-modal correspondence and to achieve inter-relation reasoning. Experiments on benchmark datasets MS-COCO, Flickr8K, and Flickr30K show that CGMN outperforms state-of-the-art methods in image retrieval. Moreover, CGMM is much more efficient than state-of-the-art methods using interactive matching. The code is available at https://github.com/cyh-sj/CGMN .
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
2分钟前
juan完成签到 ,获得积分10
2分钟前
粗暴的灭绝完成签到,获得积分10
2分钟前
3分钟前
香蕉觅云应助Medneuron采纳,获得10
3分钟前
3分钟前
Medneuron发布了新的文献求助10
3分钟前
隐形曼青应助科研通管家采纳,获得10
4分钟前
无花果应助科研通管家采纳,获得10
4分钟前
含糊的茹妖完成签到 ,获得积分10
5分钟前
红豆生南国完成签到,获得积分10
7分钟前
xwl9955完成签到 ,获得积分10
8分钟前
JamesPei应助科研通管家采纳,获得10
8分钟前
汉堡包应助嘉嘉采纳,获得10
9分钟前
9分钟前
嘉嘉发布了新的文献求助10
9分钟前
肆肆完成签到,获得积分10
9分钟前
9分钟前
嘉嘉发布了新的文献求助10
10分钟前
鳕鹅完成签到 ,获得积分10
10分钟前
492357816完成签到,获得积分10
12分钟前
12分钟前
SOLOMON应助科研通管家采纳,获得10
12分钟前
燕燕完成签到,获得积分10
13分钟前
燕燕发布了新的文献求助10
13分钟前
Ji完成签到,获得积分10
14分钟前
14分钟前
liushu发布了新的文献求助10
14分钟前
852应助科研通管家采纳,获得10
14分钟前
Hans完成签到,获得积分10
17分钟前
三土完成签到,获得积分10
17分钟前
奋斗的酒窝完成签到,获得积分10
18分钟前
小宝爸爸完成签到 ,获得积分10
21分钟前
ycangel完成签到 ,获得积分10
21分钟前
单薄乐珍完成签到 ,获得积分10
21分钟前
落后从阳完成签到 ,获得积分10
22分钟前
25分钟前
官官发布了新的文献求助10
25分钟前
Philthee完成签到,获得积分10
28分钟前
28分钟前
高分求助中
请在求助之前详细阅读求助说明!!!! 20000
The Three Stars Each: The Astrolabes and Related Texts 900
Yuwu Song, Biographical Dictionary of the People's Republic of China 700
Bernd Ziesemer - Maos deutscher Topagent: Wie China die Bundesrepublik eroberte 500
A radiographic standard of reference for the growing knee 400
Glossary of Geology 400
Additive Manufacturing Design and Applications 320
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2473232
求助须知:如何正确求助?哪些是违规求助? 2138758
关于积分的说明 5450794
捐赠科研通 1862775
什么是DOI,文献DOI怎么找? 926225
版权声明 562807
科研通“疑难数据库(出版商)”最低求助积分说明 495444