w2v-BERT: Combining Contrastive Learning and Masked Language Modeling for Self-Supervised Speech Pre-Training

计算机科学 判别式 人工智能 语音识别 语言模型 任务(项目管理) 自然语言处理 试验装置 集合(抽象数据类型) 离散化 代表(政治) 机器学习 管理 政治 政治学 法学 经济 程序设计语言 数学分析 数学
作者
Yu-An Chung,Yu Zhang,Wei Han,Chung‐Cheng Chiu,James Qin,Ruoming Pang,Yonghui Wu
标识
DOI:10.1109/asru51503.2021.9688253
摘要

Motivated by the success of masked language modeling (MLM) in pre-training natural language processing models, we propose w2v-BERT that explores MLM for self-supervised speech representation learning. w2v-BERT is a framework that combines contrastive learning and MLM, where the former trains the model to discretize input continuous speech signals into a finite set of discriminative speech tokens, and the latter trains the model to learn contextualized speech representations via solving a masked prediction task consuming the discretized tokens. In contrast to existing MLM-based speech pre-training frameworks such as HuBERT, which relies on an iterative re-clustering and re-training process, or vq-wav2vec, which concatenates two separately trained modules, w2v-BERT can be optimized in an end-to-end fashion by solving the two self-supervised tasks (the contrastive task and MLM) simultaneously. Our experiments show that w2v-BERT achieves competitive results compared to current state-of-the-art pre-trained models on the LibriSpeech benchmarks when using the Libri-Light 60k corpus as the unsupervised data. In particular, when compared to published models such as conformer-based wav2vec 2.0 and HuBERT, our model shows 5% to 10% relative WER reduction on the test-clean and test-other subsets. When applied to the Google's Voice Search traffic dataset, w2v-BERT outperforms our internal conformer-based wav2vec 2.0 by more than 30% relatively.

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
建议保存本图,每天支付宝扫一扫(相册选取)领红包
实时播报
刚刚
Owen应助孙伟涛采纳,获得10
2秒前
2秒前
4秒前
ChangZhenglee发布了新的文献求助10
4秒前
5秒前
5秒前
万能图书馆应助坎坎坷坷采纳,获得10
5秒前
xxw发布了新的文献求助10
7秒前
zwxzghgz完成签到,获得积分10
7秒前
自觉的涵易完成签到 ,获得积分10
8秒前
8秒前
明理书萱发布了新的文献求助10
9秒前
xiaojin完成签到,获得积分10
9秒前
10秒前
11秒前
11秒前
YouAreMyDream发布了新的文献求助10
11秒前
美梦成真完成签到,获得积分10
11秒前
大个应助piaopiao采纳,获得10
12秒前
可爱的函函应助瘦瘦的锅采纳,获得10
12秒前
12秒前
基拉发布了新的文献求助10
15秒前
17秒前
蝉鸣完成签到,获得积分10
17秒前
爆米花应助顺利的沛萍采纳,获得10
17秒前
李小晴天发布了新的文献求助10
17秒前
LouisKing发布了新的文献求助10
18秒前
桐桐应助刚刚好采纳,获得10
18秒前
科研通AI6应助WN采纳,获得10
19秒前
19秒前
凶狠的土豆丝完成签到 ,获得积分10
19秒前
freedom完成签到 ,获得积分10
19秒前
20秒前
今后应助科研通管家采纳,获得10
20秒前
星辰大海应助科研通管家采纳,获得10
20秒前
浮游应助科研通管家采纳,获得10
20秒前
Xiangguang应助科研通管家采纳,获得10
20秒前
小马甲应助科研通管家采纳,获得10
20秒前
深情安青应助科研通管家采纳,获得10
20秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Mentoring for Wellbeing in Schools 1200
List of 1,091 Public Pension Profiles by Region 1061
Binary Alloy Phase Diagrams, 2nd Edition 600
Atlas of Liver Pathology: A Pattern-Based Approach 500
A Technologist’s Guide to Performing Sleep Studies 500
EEG in Childhood Epilepsy: Initial Presentation & Long-Term Follow-Up 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5497253
求助须知:如何正确求助?哪些是违规求助? 4594777
关于积分的说明 14446610
捐赠科研通 4527478
什么是DOI,文献DOI怎么找? 2480888
邀请新用户注册赠送积分活动 1465295
关于科研通互助平台的介绍 1437903