亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Random search for hyper-parameter optimization

超参数优化 随机搜索 计算机科学 网格 集合(抽象数据类型) 人工神经网络 分数(化学) 搜索算法 数据挖掘 人工智能 机器学习 算法 数学 化学 几何学 有机化学 支持向量机 程序设计语言
作者
James Bergstra,Yoshua Bengio
出处
期刊:Journal of Machine Learning Research [Crossref Test]
卷期号:13 (1): 281-305 被引量:1268
链接
摘要

Grid search and manual search are the most widely used strategies for hyper-parameter optimization. This paper shows empirically and theoretically that randomly chosen trials are more efficient for hyper-parameter optimization than trials on a grid. Empirical evidence comes from a comparison with a large previous study that used grid search and manual search to configure neural networks and deep belief networks. Compared with neural networks configured by a pure grid search, we find that random search over the same domain is able to find models that are as good or better within a small fraction of the computation time. Granting random search the same computational budget, random search finds better models by effectively searching a larger, less promising configuration space. Compared with deep belief networks configured by a thoughtful combination of manual search and grid search, purely random search over the same 32-dimensional configuration space found statistically equal performance on four of seven data sets, and superior performance on one of seven. A Gaussian process analysis of the function from hyper-parameters to validation set performance reveals that for most data sets only a few of the hyper-parameters really matter, but that different hyper-parameters are important on different data sets. This phenomenon makes grid search a poor choice for configuring algorithms for new data sets. Our analysis casts some light on why recent High Throughput methods achieve surprising success--they appear to search through a large number of hyper-parameters because most hyper-parameters do not matter much. We anticipate that growing interest in large hierarchical models will place an increasing burden on techniques for hyper-parameter optimization; this work shows that random search is a natural baseline against which to judge progress in the development of adaptive (sequential) hyper-parameter optimization algorithms.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
文静的翠彤完成签到 ,获得积分10
1秒前
wyh发布了新的文献求助10
3秒前
qiuqiu应助tracer526采纳,获得10
5秒前
17秒前
17秒前
Murphy完成签到 ,获得积分10
18秒前
李健应助Krismile采纳,获得10
20秒前
仰勒完成签到 ,获得积分10
22秒前
小白果果发布了新的文献求助10
22秒前
小九关注了科研通微信公众号
31秒前
且慢应助LaffiteElla采纳,获得20
35秒前
45秒前
张紫豹完成签到,获得积分20
47秒前
量子星尘发布了新的文献求助10
49秒前
555发布了新的文献求助30
51秒前
研友_VZG7GZ应助张紫豹采纳,获得20
51秒前
52秒前
56秒前
wyh完成签到,获得积分10
1分钟前
555完成签到,获得积分10
1分钟前
小二郎应助YU采纳,获得10
1分钟前
1分钟前
渟柠完成签到 ,获得积分10
1分钟前
yu发布了新的文献求助10
1分钟前
1分钟前
Akim应助芋泥采纳,获得10
1分钟前
小钥匙完成签到 ,获得积分10
1分钟前
小马甲应助小白果果采纳,获得10
1分钟前
1分钟前
yu完成签到,获得积分20
1分钟前
动听的雨完成签到,获得积分10
1分钟前
111发布了新的文献求助10
1分钟前
Fayeah完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
1分钟前
nihao完成签到 ,获得积分10
1分钟前
科研通AI2S应助科研通管家采纳,获得30
1分钟前
月子淇应助科研通管家采纳,获得10
1分钟前
华仔应助科研通管家采纳,获得10
1分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Iron toxicity and hematopoietic cell transplantation: do we understand why iron affects transplant outcome? 2000
Teacher Wellbeing: Noticing, Nurturing, Sustaining, and Flourishing in Schools 1200
List of 1,091 Public Pension Profiles by Region 1041
睡眠呼吸障碍治疗学 600
A Technologist’s Guide to Performing Sleep Studies 500
EEG in Childhood Epilepsy: Initial Presentation & Long-Term Follow-Up 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5488409
求助须知:如何正确求助?哪些是违规求助? 4587292
关于积分的说明 14413420
捐赠科研通 4518572
什么是DOI,文献DOI怎么找? 2475929
邀请新用户注册赠送积分活动 1461433
关于科研通互助平台的介绍 1434333