亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

CoCa: Contrastive Captioners are Image-Text Foundation Models

计算机科学 隐藏字幕 人工智能 编码器 深度学习 变压器 语音识别 语言模型 特征学习 自然语言处理 图像(数学) 量子力学 操作系统 物理 电压
作者
Jiahui Yu,Zirui Wang,Vijay K. Vasudevan,Legg Yeung,Mojtaba Seyedhosseini,Yonghui Wu
出处
期刊:Cornell University - arXiv 被引量:428
标识
DOI:10.48550/arxiv.2205.01917
摘要

Exploring large-scale pretrained foundation models is of significant interest in computer vision because these models can be quickly transferred to many downstream tasks. This paper presents Contrastive Captioner (CoCa), a minimalist design to pretrain an image-text encoder-decoder foundation model jointly with contrastive loss and captioning loss, thereby subsuming model capabilities from contrastive approaches like CLIP and generative methods like SimVLM. In contrast to standard encoder-decoder transformers where all decoder layers attend to encoder outputs, CoCa omits cross-attention in the first half of decoder layers to encode unimodal text representations, and cascades the remaining decoder layers which cross-attend to the image encoder for multimodal image-text representations. We apply a contrastive loss between unimodal image and text embeddings, in addition to a captioning loss on the multimodal decoder outputs which predicts text tokens autoregressively. By sharing the same computational graph, the two training objectives are computed efficiently with minimal overhead. CoCa is pretrained end-to-end and from scratch on both web-scale alt-text data and annotated images by treating all labels simply as text, seamlessly unifying natural language supervision for representation learning. Empirically, CoCa achieves state-of-the-art performance with zero-shot transfer or minimal task-specific adaptation on a broad range of downstream tasks, spanning visual recognition (ImageNet, Kinetics-400/600/700, Moments-in-Time), crossmodal retrieval (MSCOCO, Flickr30K, MSR-VTT), multimodal understanding (VQA, SNLI-VE, NLVR2), and image captioning (MSCOCO, NoCaps). Notably on ImageNet classification, CoCa obtains 86.3% zero-shot top-1 accuracy, 90.6% with a frozen encoder and learned classification head, and new state-of-the-art 91.0% top-1 accuracy on ImageNet with a finetuned encoder.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
8秒前
hunajx完成签到,获得积分10
47秒前
1分钟前
封之玉发布了新的文献求助10
1分钟前
封之玉完成签到,获得积分20
1分钟前
2分钟前
Akim应助科研通管家采纳,获得10
2分钟前
2分钟前
茶蛋发布了新的文献求助10
2分钟前
2分钟前
英姑应助岁岁安采纳,获得10
2分钟前
Fabio发布了新的文献求助10
2分钟前
欣欣完成签到 ,获得积分10
2分钟前
dddd完成签到 ,获得积分10
3分钟前
3分钟前
Yang完成签到 ,获得积分10
3分钟前
牛黄完成签到 ,获得积分10
3分钟前
4分钟前
4分钟前
Yuan应助科研通管家采纳,获得10
4分钟前
Yuan应助科研通管家采纳,获得10
4分钟前
JamesPei应助Nidehuogef采纳,获得10
4分钟前
爆米花应助善良的静曼采纳,获得10
4分钟前
4分钟前
Nidehuogef发布了新的文献求助10
4分钟前
正月不忘十一完成签到,获得积分10
4分钟前
寡核苷酸小白完成签到 ,获得积分10
4分钟前
明白放弃完成签到,获得积分10
5分钟前
量子星尘发布了新的文献求助10
5分钟前
5分钟前
rayyoung000完成签到,获得积分10
5分钟前
5分钟前
善良的静曼完成签到 ,获得积分10
5分钟前
6分钟前
可乐发布了新的文献求助10
6分钟前
Yuan应助科研通管家采纳,获得10
6分钟前
Yuan应助科研通管家采纳,获得10
6分钟前
Yuan应助科研通管家采纳,获得10
6分钟前
Yuan应助科研通管家采纳,获得10
6分钟前
思源应助科研通管家采纳,获得10
6分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Kinesiophobia : a new view of chronic pain behavior 2000
Cronologia da história de Macau 1600
Developmental Peace: Theorizing China’s Approach to International Peacebuilding 1000
Traitements Prothétiques et Implantaires de l'Édenté total 2.0 1000
Earth System Geophysics 1000
Bioseparations Science and Engineering Third Edition 1000
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 纳米技术 有机化学 物理 生物化学 化学工程 计算机科学 复合材料 内科学 催化作用 光电子学 物理化学 电极 冶金 遗传学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 6130040
求助须知:如何正确求助?哪些是违规求助? 7957687
关于积分的说明 16512289
捐赠科研通 5248054
什么是DOI,文献DOI怎么找? 2802727
邀请新用户注册赠送积分活动 1783832
关于科研通互助平台的介绍 1654880