SciHub
文献互助
期刊查询
一搜即达
科研导航
即时热点
交流社区
登录
注册
发布
文献
求助
首页
我的求助
捐赠本站
昏睡的人
Lv4
440 积分
2025-03-31 加入
最近求助
最近应助
互助留言
Improving Knowledge Distillation via Head and Tail Categories
21小时前
已完结
Personalized Federated Learning with Feature Alignment via Knowledge Distillation
3个月前
已完结
ACE-pFL: Accurate, Efficient Personalized Federated Learning With Knowledge Distillation
3个月前
已完结
PFedKD: Personalized Federated Learning via Knowledge Distillation using Unlabeled Pseudo Data for Internet of Things
3个月前
已完结
Decoupled graph knowledge distillation: A general logits-based method for learning MLPs on graphs
3个月前
已完结
DKD-pFed: A novel framework for personalized federated learning via decoupling knowledge distillation and feature decorrelation
3个月前
已完结
Prototype-Decomposed Knowledge Distillation for Learning Generalized Federated Representation
3个月前
已完结
联邦学习在高度数据异构场景下的泛化鲁棒性增强
5个月前
已完结
FedRS
6个月前
已完结
没有进行任何应助
感谢
5个月前
速度真快
6个月前
最近帖子
最近评论
没有发布任何帖子
没有发布任何评论