SciHub
文献互助
期刊查询
一搜即达
科研导航
即时热点
交流社区
登录
注册
发布
文献
求助
首页
我的求助
捐赠本站
沉静立辉
Lv5
9
1428 积分
2024-10-04 加入
最近求助
最近应助
互助留言
Bridging the Gap: Teacher-Assisted Wasserstein Knowledge Distillation for Efficient Multi-Modal Recommendation
3天前
已完结
EKD4Rec: Ensemble Knowledge Distillation from LLM-based Models to Traditional Sequential Recommenders
3天前
已完结
Multi-stage knowledge distillation for sequential recommendation with interest knowledge
10个月前
已完结
没有进行任何应助
帮大忙了
3天前
感谢
3天前
感谢,点赞
10个月前
最近帖子
最近评论
没有发布任何帖子
没有发布任何评论