| 标题 |
Large Language Models (LLMs) Inference Offloading and Resource Allocation in Cloud-Edge Networks: An Active Inference Approach 云边缘网络中的大型语言模型推理卸载和资源分配:一种主动推理方法
相关领域
计算机科学
推论
效率低下
云计算
服务器
分布式计算
强化学习
任务(项目管理)
适应性
人工智能
GSM演进的增强数据速率
延迟(音频)
机器学习
计算机网络
工程类
生物
操作系统
经济
微观经济学
系统工程
电信
生态学
|
| 网址 | |
| DOI | |
| 其它 |
期刊: 作者:Jingcheng Fang; Ying He; F. Richard Yu; Jianqiang Li; Victor C. M. Leung 出版日期:2023-10-10 |
| 求助人 | |
| 下载 | 该求助完结已超 24 小时,文件已从服务器自动删除,无法下载。 |
|
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|