Cloud Resource Scheduling With Deep Reinforcement Learning and Imitation Learning

论文笔记 - 基于深度强化学习与模仿学习的云资源调度

这篇论文的核心目标,是在云资源调度场景下,用 模仿学习 + 深度强化学习 的两阶段方法提升在线调度性能。作者提出 DeepRM_Plus,在 DeepRM 基础上引入行为克隆初始化与更强的 CNN 状态编码,以缓解纯强化学习从零探索时训练慢、收敛慢的问题。论文实验表明,DeepRM_Plus 相比 DeepRM 收敛更快,并在平均加权周转时间与平均循环时间两个指标上取得更优结果。

阅读更多

Diffusion-based Reinforcement Learning for Edge-enabled AI-Generated Content Services

论文笔记 - 基于扩散的边缘增强AIGC服务强化学习

这篇论文的核心目标,是在边缘 AIGC 服务场景下,为动态到达的用户任务选择合适的 AIGC Service Provider(ASP)。作者认为,传统 DRL 在复杂离散决策问题中容易受限于探索效率和策略表达能力,因此提出用扩散模型生成动作分布,并将其嵌入 SAC,形成 D2SAC

阅读更多

Carbon-Aware Task Scheduling in Distributed Computing Continuum: A Lyapunov-Guided Reinforcement Learning Approach

论文笔记 - 在分布式计算连续体中的碳感知任务调度:一种基于李雅普诺夫的强化学习方法

这篇论文的核心目标,是在 Distributed Computing Continuum(DCC) 场景下,把“实时任务调度”与“长期碳预算约束”统一起来。作者提出了一种 Lyapunov 虚拟碳队列 + 动态权重 PPO + 节点内凸优化切片 的双层调度框架,用于在异构云—雾—边环境中实现低时延、低碳排、可长期约束满足的任务调度。

阅读更多