| 标题 |
Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism Megatron-LM:使用模型并行训练数十亿参数语言模型
相关领域
平行性(语法)
培训(气象学)
计算机科学
并行计算
数据并行性
地理
气象学
|
| 网址 | |
| DOI | |
| 其它 |
期刊:arXiv (Cornell University) 作者:Mohammad Shoeybi; Mostofa Patwary; Raul Puri; Patrick LeGresley; Jared Casper; et al 出版日期:2019-09-17 |
| 求助人 | |
| 下载 | |
|
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|