| 标题 |
Deep Reinforcement Learning-Based Task Offloading for Vehicular Edge Computing With Flexible RSU-RSU Cooperation 相关领域
计算机科学
强化学习
能源消耗
任务(项目管理)
资源配置
边缘计算
GSM演进的增强数据速率
延迟(音频)
计算机网络
分布式计算
实时计算
工程类
人工智能
电信
系统工程
电气工程
|
| 网址 | |
| DOI | |
| 其它 |
摘要: 车辆边缘计算(VEC)作为一种增强,为车载互联网(IoV)应用提供低延迟和低能耗。车辆的机动性和路边车辆(RSU)的负载差异是VEC中的两个重要问题。前者导致任务结果接收失败,因为车辆超出其当前RSU的覆盖范围;后者则因RSU之间的负载不平衡导致系统性能下降。通过利用灵活的RSU-RSU合作机制,这些问题可以很好地解决,而现有研究尚未充分研究这一点。本文提出了一种用于联合任务卸载、车辆与RSU资源分配计算、车辆至RSU传输功率分配以及RSU至RSU传输速率分配的新型资源管理方案。在我们的方案中,任务结果可以转移到车辆当前所在的RSU,并将任务从高负载RSU进一步卸载到低负载RSU。为最小化所有车辆的总任务处理延迟和能耗,我们设计了基于双延迟深度确定性策略梯度(TD3)的深度强化学习(DRL)算法,嵌入优化子程序通过数值方法解决两个子问题,从而降低了算法的训练复杂度。在6种不同场景中进行大量模拟。与4个参考方案相比,我们的方案可将总任务处理成本降低17.3%至28.4%。 |
| 求助人 | |
| 下载 | |
|
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|