PDF
摘要
为了缓解车联网中个体车辆计算资源配置过低而导致的任务处理时延较大的问题,提出了一种移动边缘计算(mobile edge computing, MEC)架构下的动态任务卸载策略和资源分配方案。以最小化全网任务处理时延为目标,将车联网中的任务卸载和资源分配问题建模为马尔可夫决策过程(Markov decision process, MDP),并利用深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法进行了问题求解。仿真结果表明,与执行者-评价者(actor-critic, AC)和深度Q网络(deep Q-network, DQN)这2种算法相比,DDPG算法以最快的算法收敛特性获得最小的全网任务处理时延。
关键词
车联网
/
移动边缘计算
/
马尔可夫决策过程
/
深度确定性策略梯度
Key words
MEC架构下基于DDPG的车联网任务卸载和资源分配[J].
重庆邮电大学学报(自然科学版), 2024, 36(02): 259-267 DOI: