清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

Data-efficient multimodal human action recognition for proactive human–robot collaborative assembly: A cross-domain few-shot learning approach

动作识别 计算机科学 领域(数学分析) 人机交互 人工智能 弹丸 动作(物理) 人机交互 机器人 计算机视觉 机器学习 数学 数学分析 化学 物理 有机化学 量子力学 班级(哲学)
作者
Tianyu Wang,Zhihao Liu,Lihui Wang,Mian Li,Xi Vincent Wang
出处
期刊:Robotics and Computer-integrated Manufacturing [Elsevier]
卷期号:89: 102785-102785 被引量:4
标识
DOI:10.1016/j.rcim.2024.102785
摘要

With the recent vision of Industry 5.0, the cognitive capability of robots plays a crucial role in advancing proactive human–robot collaborative assembly. As a basis of the mutual empathy, the understanding of a human operator's intention has been primarily studied through the technique of human action recognition. Existing deep learning-based methods demonstrate remarkable efficacy in handling information-rich data such as physiological measurements and videos, where the latter category represents a more natural perception input. However, deploying these methods in new unseen assembly scenarios requires first collecting abundant case-specific data. This leads to significant manual effort and poor flexibility. To deal with the issue, this paper proposes a novel cross-domain few-shot learning method for data-efficient multimodal human action recognition. A hierarchical data fusion mechanism is designed to jointly leverage the skeletons, RGB images and depth maps with complementary information. Then a temporal CrossTransformer is developed to enable the action recognition with very limited amount of data. Lightweight domain adapters are integrated to further improve the generalization with fast finetuning. Extensive experiments on a real car engine assembly case show the superior performance of proposed method over state-of-the-art regarding both accuracy and finetuning efficiency. Real-time demonstrations and ablation study further indicate the potential of early recognition, which is beneficial for the robot procedures generation in practical applications. In summary, this paper contributes to the rarely explored realm of data-efficient human action recognition for proactive human–robot collaboration.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
怕孤单的羊完成签到 ,获得积分10
11秒前
迷人的焦完成签到 ,获得积分10
13秒前
xiuxiu125完成签到,获得积分10
19秒前
小二郎应助科研通管家采纳,获得10
25秒前
trophozoite完成签到 ,获得积分10
52秒前
HYQ完成签到 ,获得积分10
1分钟前
zzzy完成签到 ,获得积分10
1分钟前
塇塇完成签到,获得积分10
1分钟前
1分钟前
甜美的秋尽完成签到,获得积分10
1分钟前
GrindSeason完成签到,获得积分10
1分钟前
英姑应助积极的冷风采纳,获得30
2分钟前
widesky777完成签到 ,获得积分0
2分钟前
2分钟前
2分钟前
湖人完成签到,获得积分10
2分钟前
华仔应助科研通管家采纳,获得10
2分钟前
科研通AI2S应助科研通管家采纳,获得10
2分钟前
铜豌豆完成签到 ,获得积分10
2分钟前
方勇飞完成签到,获得积分10
2分钟前
2分钟前
佳言2009完成签到 ,获得积分10
2分钟前
2分钟前
CCCMJ发布了新的文献求助10
2分钟前
3分钟前
理理完成签到 ,获得积分10
3分钟前
melody完成签到 ,获得积分10
3分钟前
天纵奇才熊完成签到,获得积分10
3分钟前
kmzzy完成签到,获得积分10
3分钟前
善学以致用应助hunajx采纳,获得10
3分钟前
4分钟前
科研通AI2S应助科研通管家采纳,获得10
4分钟前
科研通AI2S应助科研通管家采纳,获得10
4分钟前
天天快乐应助科研通管家采纳,获得30
4分钟前
4分钟前
5分钟前
lixixi完成签到 ,获得积分10
5分钟前
一串表情完成签到 ,获得积分10
5分钟前
Jason发布了新的文献求助10
5分钟前
神勇的天问完成签到 ,获得积分10
6分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Molecular Biology of Cancer: Mechanisms, Targets, and Therapeutics 3000
Kinesiophobia : a new view of chronic pain behavior 3000
Les Mantodea de guyane 2500
CCRN 的官方教材 《AACN Core Curriculum for High Acuity, Progressive, and Critical Care Nursing》第8版 1000
《Marino's The ICU Book》第五版,电子书 1000
Feldspar inclusion dating of ceramics and burnt stones 1000
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5966456
求助须知:如何正确求助?哪些是违规求助? 7251197
关于积分的说明 15974833
捐赠科研通 5103457
什么是DOI,文献DOI怎么找? 2741354
邀请新用户注册赠送积分活动 1705417
关于科研通互助平台的介绍 1620337