Improving transparency and representational generalizability through parallel continual learning

计算机科学 人工智能 概化理论 机器学习 序列学习 遗忘 多任务学习 任务(项目管理) 透明度(行为) 人工神经网络 基于实例的学习 主动学习 竞争性学习 在线机器学习 主动学习(机器学习) 机器人学习 统计 数学 计算机安全 语言学 哲学 管理 移动机器人 机器人 经济
作者
Mahsa Paknezhad,Hamsawardhini Rengarajan,Chenghao Yuan,Sujanya Suresh,Manas Gupta,Savitha Ramasamy,Lee Hwee Kuan
出处
期刊:Neural Networks [Elsevier]
卷期号:161: 449-465
标识
DOI:10.1016/j.neunet.2023.02.007
摘要

This paper takes a parallel learning approach in continual learning scenarios. We define parallel continual learning as learning a sequence of tasks where the data for the previous tasks, whose distribution may have shifted over time, are also available while learning new tasks. We propose a parallel continual learning method by assigning subnetworks to each task, and simultaneously training only the assigned subnetworks on their corresponding tasks. In doing so, some parts of the network will be shared across multiple tasks. This is unlike the existing literature in continual learning which aims at learning incoming tasks sequentially, with the assumption that the data for the previous tasks have a fixed distribution. Our proposed method offers promises in: (1) Transparency in the network and in the relationship across tasks by enabling examination of the learned representations by independent and shared subnetworks, (2) Representation generalizability through sharing and training subnetworks on multiple tasks simultaneously. Our analysis shows that compared to many competing approaches such as continual learning, neural architecture search, and multi-task learning, parallel continual learning is capable of learning more generalizable representations. Also, (3)Parallel continual learning overcomes the common issue of catastrophic forgetting in continual learning algorithms. This is the first effort to train a neural network on multiple tasks and input domains simultaneously in a continual learning scenario. Our code is available at https://github.com/yours-anonym/PaRT.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
cycycycy发布了新的文献求助10
1秒前
2秒前
月兮2013发布了新的文献求助10
3秒前
充电宝应助坚强的元瑶采纳,获得30
6秒前
yrain发布了新的文献求助10
8秒前
华仔应助清新的以山采纳,获得10
8秒前
大模型应助月兮2013采纳,获得10
10秒前
无解应助大豪子采纳,获得50
12秒前
14秒前
15秒前
免疫与代谢研究完成签到,获得积分10
15秒前
16秒前
故意的枫完成签到,获得积分10
16秒前
18秒前
林林发布了新的文献求助10
19秒前
JamesPei应助喊我彩彩采纳,获得10
20秒前
question500完成签到,获得积分20
21秒前
科研蚂蚁发布了新的文献求助10
22秒前
剥橘子高手完成签到,获得积分10
23秒前
25秒前
Noel应助彼得大帝采纳,获得10
26秒前
Carol发布了新的文献求助10
26秒前
万能图书馆应助邢函采纳,获得10
27秒前
酥香脆完成签到,获得积分10
27秒前
隐形曼青应助科研蚂蚁采纳,获得10
27秒前
喊我彩彩发布了新的文献求助10
32秒前
李月完成签到 ,获得积分10
32秒前
情怀应助酥香脆采纳,获得10
32秒前
zsk1122完成签到,获得积分10
33秒前
搜集达人应助M先生采纳,获得10
35秒前
咩咩洞完成签到,获得积分10
37秒前
38秒前
guanzhuang完成签到,获得积分10
40秒前
deng完成签到,获得积分10
40秒前
饼饼发布了新的文献求助10
41秒前
何求完成签到,获得积分20
41秒前
星辰大海应助deng采纳,获得10
44秒前
yyds完成签到,获得积分10
46秒前
47秒前
学术废材啊啊啊啊应助QYF采纳,获得10
47秒前
高分求助中
请在求助之前详细阅读求助说明!!!! 20000
One Man Talking: Selected Essays of Shao Xunmei, 1929–1939 1000
The Three Stars Each: The Astrolabes and Related Texts 900
Yuwu Song, Biographical Dictionary of the People's Republic of China 700
[Lambert-Eaton syndrome without calcium channel autoantibodies] 520
Pressing the Fight: Print, Propaganda, and the Cold War 500
Bernd Ziesemer - Maos deutscher Topagent: Wie China die Bundesrepublik eroberte 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 有机化学 工程类 生物化学 纳米技术 物理 内科学 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 电极 光电子学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 2471144
求助须知:如何正确求助?哪些是违规求助? 2137927
关于积分的说明 5447466
捐赠科研通 1861777
什么是DOI,文献DOI怎么找? 925939
版权声明 562740
科研通“疑难数据库(出版商)”最低求助积分说明 495278