ERL-Re$^2$: Efficient Evolutionary Reinforcement Learning with Shared State Representation and Individual Policy Representation

强化学习 计算机科学 代表(政治) 人工智能 进化算法 一般化 渡线 进化计算 航程(航空) 机器学习 进化机器人 数学优化 数学 法学 复合材料 材料科学 数学分析 政治 政治学
作者
Pengyi Li,Hongyao Tang,Jianye Hao,Yufeng Zheng,Xi’an Fu,Zhaopeng Meng
出处
期刊:Cornell University - arXiv
标识
DOI:10.48550/arxiv.2210.17375
摘要

Deep Reinforcement Learning (Deep RL) and Evolutionary Algorithms (EA) are two major paradigms of policy optimization with distinct learning principles, i.e., gradient-based v.s. gradient-free. An appealing research direction is integrating Deep RL and EA to devise new methods by fusing their complementary advantages. However, existing works on combining Deep RL and EA have two common drawbacks: 1) the RL agent and EA agents learn their policies individually, neglecting efficient sharing of useful common knowledge; 2) parameter-level policy optimization guarantees no semantic level of behavior evolution for the EA side. In this paper, we propose Evolutionary Reinforcement Learning with Two-scale State Representation and Policy Representation (ERL-Re$^2$), a novel solution to the aforementioned two drawbacks. The key idea of ERL-Re$^2$ is two-scale representation: all EA and RL policies share the same nonlinear state representation while maintaining individual} linear policy representations. The state representation conveys expressive common features of the environment learned by all the agents collectively; the linear policy representation provides a favorable space for efficient policy optimization, where novel behavior-level crossover and mutation operations can be performed. Moreover, the linear policy representation allows convenient generalization of policy fitness with the help of the Policy-extended Value Function Approximator (PeVFA), further improving the sample efficiency of fitness estimation. The experiments on a range of continuous control tasks show that ERL-Re$^2$ consistently outperforms advanced baselines and achieves the State Of The Art (SOTA). Our code is available on https://github.com/yeshenpy/ERL-Re2.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
gao发布了新的文献求助10
1秒前
1秒前
1秒前
Jasper应助WQ采纳,获得10
2秒前
3秒前
彭于晏应助努力合成采纳,获得10
4秒前
小马甲应助碧蓝的傲丝采纳,获得10
5秒前
华仔应助研友_yLpQrn采纳,获得10
5秒前
shinysparrow应助Shannon采纳,获得10
5秒前
5秒前
可爱的函函应助刘的花采纳,获得10
5秒前
6秒前
erjigao完成签到,获得积分10
7秒前
7秒前
酸化土壤改良应助林曦子采纳,获得10
7秒前
HRBJ发布了新的文献求助100
8秒前
卫东发布了新的文献求助10
8秒前
一笑倾城发布了新的文献求助10
8秒前
9秒前
子期发布了新的文献求助10
9秒前
DuLab李哥发布了新的文献求助10
10秒前
10秒前
无助完成签到,获得积分20
10秒前
11秒前
ding应助流星飞采纳,获得10
11秒前
11秒前
Ploaris完成签到 ,获得积分10
11秒前
Ava应助刘娟采纳,获得10
12秒前
12秒前
肖旻发布了新的文献求助10
12秒前
SciGPT应助月色采纳,获得30
13秒前
shen发布了新的文献求助10
13秒前
xiaoyi完成签到,获得积分10
13秒前
小二郎应助白犀牛采纳,获得10
14秒前
万幸鹿发布了新的文献求助10
14秒前
14秒前
HRBJ完成签到,获得积分10
14秒前
丑丑虎完成签到,获得积分10
14秒前
15秒前
暴躁的老哥应助gao采纳,获得10
15秒前
高分求助中
《郑州人》 2000
One Man Talking: Selected Essays of Shao Xunmei, 1929–1939 1000
Yuwu Song, Biographical Dictionary of the People's Republic of China 700
[Lambert-Eaton syndrome without calcium channel autoantibodies] 520
Sphäroguß als Werkstoff für Behälter zur Beförderung, Zwischen- und Endlagerung radioaktiver Stoffe - Untersuchung zu alternativen Eignungsnachweisen: Zusammenfassender Abschlußbericht 500
少脉山油柑叶的化学成分研究 430
Revolutions 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2453845
求助须知:如何正确求助?哪些是违规求助? 2125770
关于积分的说明 5413502
捐赠科研通 1854532
什么是DOI,文献DOI怎么找? 922333
版权声明 562326
科研通“疑难数据库(出版商)”最低求助积分说明 493493