标题 |
![]() TiBERT:藏语预训练语言模型
相关领域
计算机科学
词汇
自然语言处理
语言模型
人工智能
比例(比率)
自然语言
特征(语言学)
语言学
量子力学
物理
哲学
|
网址 | |
DOI | |
其它 | S. Liu, J. Deng, Y. Sun and X. Zhao, "TiBERT: Tibetan Pre-trained Language Model," 2022 IEEE International Conference on Systems, Man, and Cybernetics (SMC), Prague, Czech Republic, 2022, pp. 2956-2961, doi: 10.1109/SMC53654.2022.9945074. keywords: {Vocabulary;Text categorization;Training data;Natural language processing;Data models;Task analysis;Cybernetics;Pre-trained language model;Tibetan;Sentencepiece;TiBERT;Text classification;Question generation}, |
求助人 | |
下载 | 该求助完结已超 24 小时,文件已从服务器自动删除,无法下载。 |
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|