MEC架构下基于DDPG的车联网任务卸载和资源分配 |
| |
作者姓名: | 杨金松 孙三山 刘莉 熊有志 冯波涛 陆凌蓉 |
| |
作者单位: | 1.四川师范大学 物理与电子工程学院,成都 610101;2.四川师范大学 物理与电子工程学院,成都 610101;电子科技大学 通信抗干扰技术国家级重点实验室,成都 611731;3.深圳大学 电子与信息工程学院,广东 深圳 518060;4.UT斯达康通讯有限公司,杭州 310053 |
| |
基金项目: | 中央高校科研经费项目(ZYGX2020ZB044);四川省自然科学基金项目(2022NSFSC0480) |
| |
摘 要: | 为了缓解车联网中个体车辆计算资源配置过低而导致的任务处理时延较大的问题,提出了一种移动边缘计算(mobile edge computing,MEC)架构下的动态任务卸载策略和资源分配方案.以最小化全网任务处理时延为目标,将车联网中的任务卸载和资源分配问题建模为马尔可夫决策过程(Markov decision process,MDP),并利用深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法进行了问题求解.仿真结果表明,与执行者-评价者(actor-critic,AC)和深度Q网络(deep Q-network,DQN)这 2 种算法相比,DDPG算法以最快的算法收敛特性获得最小的全网任务处理时延.
|
关 键 词: | 车联网 移动边缘计算 马尔可夫决策过程 深度确定性策略梯度 |
收稿时间: | 2022-12-29 |
修稿时间: | 2023-10-09 |
本文献已被 万方数据 等数据库收录! |
| 点击此处可从《重庆邮电大学学报(自然科学版)》浏览原始摘要信息 |
|
点击此处可从《重庆邮电大学学报(自然科学版)》下载全文 |
|