HAMi与NVIDIA合作揭秘,GPU拓扑感知调度原理详解
本文详细解析了HAMi与NVIDIA合作实现的GPU拓扑感知调度原理,通过优化调度算法,系统能够感知GPU的拓扑结构,实现更高效的任务分配和计算资源调度,这一技术有助于提高GPU利用率和计算性能,为高性能计算和人工智能应用带来显著提升。
hami 社区在 v2.7.0 版本中正式上线了面向 nvidia gpu 的 拓扑感知调度 功能。该功能旨在应对高性能计算(hpc)与 ai 大模型训练中的多卡通信瓶颈,通过智能任务调度机制,将计算负载精准部署到物理连接最优、通信延迟最低的 gpu 组合上,显著提升任务执行效率和集群整体算力利用率。本文将在介绍功能亮点的基础上,深入源码层面,全面解析 hami 实现 nvidia gpu 拓扑感知调度的设计思路与关键技术。

一、核心功能概览
- 动态生成拓扑通信分值:Device Plugin 利用 NVML 接口实时探测节点内各 GPU 之间的物理互联方式(如 NVLink、PCIe),并将其转化为可量化的“通信分数”,为调度器提供数据支撑。
-
双模式防碎片化调度策略:
Fit函数内置优化逻辑,针对不同类型的 GPU 请求——无论是多卡并行任务还是单卡独立任务——自动启用“最佳匹配”与“最小破坏”两种策略,兼顾短期性能最大化与长期资源可用性。
二、设计原理剖析
HAMi 的拓扑感知调度机制遵循“先量化、再决策”的设计范式:首先在节点侧将复杂的硬件拓扑结构转化为标准化的数值评分;随后由调度系统结合这些评分做出最优分配决策。
整个流程分为两个关键阶段:拓扑注册 和 调度决策。
阶段一:拓扑注册 —— 将物理连接数字化
目标是将隐藏于硬件层的 GPU 互连关系,转换为软件可识别的数字指标。
- 拓扑信息采集:每个 GPU 节点上的 Device Plugin 使用 NVIDIA 提供的 NVML 库,遍历所有 GPU 设备对,获取它们之间的直连类型(例如是否通过 NVLink 或 PCIe 相连)。
-
建模与打分机制:
- 构建拓扑图:代码在内存中构造一个完整的 GPU 连接图谱,记录每对设备间的链路详情。
-
分数映射规则:依据预设评分标准(如
SingleNVLINKLink计 100 分,P2PLinkCrossCPU计 10 分),算法遍历该图谱,为任意两块 GPU 之间生成一个综合通信能力得分。
- 输出结果 —— 设备通信分表:最终形成一张“设备通信分表”,其中包含每个 GPU 的 UUID 及其与其他 GPU 的通信分数,并通过 Kubernetes 节点 Annotation 上报至控制面。
阶段二:调度决策 —— 智能选择最优设备组合
当调度器需要为 Pod 分配 GPU 资源时,会将请求转发给设备端的 Fit 函数,并携带当前节点的“通信分表”进行辅助判断。
-
初步筛选:
Fit函数首先排除不满足显存、算力等基础条件的 GPU。 - 智能寻优:基于剩余候选设备及其通信分数,运行融合“最佳匹配”与“最小破坏”原则的优化算法,计算出最合适的设备组合返回给调度器。
三、实现细节:源码级深度解读
1. 拓扑发现与分数生成
拓扑感知的核心在于准确捕捉设备间的真实连接状态,并将其转化为可参与调度决策的数值。整个过程由 Device Plugin 在本地完成。
-
拓扑图构建 (
build()function):
主要逻辑位于pkg/device/nvidia/calculate_score.go中的build()函数。它并非简单生成邻接矩阵,而是:-
初始化设备列表:创建
DeviceList,每个Device包含一个空的Links映射(map[int][]P2PLink)。 -
双重循环填充连接信息:遍历所有 GPU 对
(d1, d2),调用GetP2PLink与GetNVLink(定义于links.go)获取连接详情。 -
聚合链路数据:将检测到的所有连接(包括 PCIe 和 NVLink)以
P2PLink结构体形式追加至对应设备的Links字段中,从而在内存中构建出完整的拓扑网络。
-
初始化设备列表:创建
-
通信分数计算 (
calculateGPUPairScore()function):
在拓扑图建立后,calculateGPUScore调用calculateGPUPairScore将连接关系量化为具体分数。- 函数遍历两个 GPU 之间的所有链路类型,根据
switch分支累加得分。例如:P2PLinkSameBoard加 60 分,SingleNVLINKLink加 100 分,TwoNVLINKLinks加 200 分,最终返回总和作为两者通信质量评分。
- 函数遍历两个 GPU 之间的所有链路类型,根据
// File: pkg/device/nvidia/calculate_score.go
func (o *deviceListBuilder) build() (DeviceList, error) {
// ...
// 1. 初始化扁平化 DeviceList
var devices DeviceList
for i, d := range nvmlDevices {
// ... create device object ...
devices = append(devices, device)
}
// 2. 遍历并填充 Links map
for i, d1 := range nvmlDevices {
for j, d2 := range nvmlDevices {
if i != j {
// 获取并追加 P2P Link 信息
p2plink, _ := GetP2PLink(d1, d2)
devices[i].Links[j] = append(devices[i].Links[j], P2PLink{devices[j], p2plink})
// 获取并追加 NVLink 信息
nvlink, _ := GetNVLink(d1, d2)
devices[i].Links[j] = append(devices[i].Links[j], P2PLink{devices[j], nvlink})
}
}
}
return devices, nil}
func calculateGPUPairScore(gpu0 Device, gpu1 Device) int {
score := 0
for _, link := range gpu0.Links[gpu1.Index] {
switch link.Type {
case P2PLinkCrossCPU: score += 10
// ... (etc) ...
case SingleNVLINKLink: score += 100
// ... (etc) ...
}
}
return score
}
2. 设备端调度逻辑:双策略优化选择
核心调度逻辑实现在 pkg/device/nvidia/device.go 的 Fit() 函数中。当检测到启用了拓扑感知策略后,会根据请求的 GPU 数量切换不同的优化路径。
// File: pkg/device/nvidia/device.go
func (nv *NvidiaGPUDevices) Fit(...) {
// ...
needTopology := util.GetGPUSchedulerPolicyByPod(device.GPUSchedulerPolicy, pod) == util.GPUSchedulerPolicyTopology.String()
// ...
// 过滤出符合资源要求的空闲 GPU (tmpDevs)
// ...
if needTopology {
if len(tmpDevs[k.Type]) > int(originReq) {
if originReq == 1 {
// 单卡任务:采用“最小破坏”策略
lowestDevices := computeWorstSignleCard(nodeInfo, request, tmpDevs)
tmpDevs[k.Type] = lowestDevices
} else {
// 多卡任务:采用“最佳匹配”策略
combinations := generateCombinations(request, tmpDevs)
combination := computeBestCombination(nodeInfo, combinations)
tmpDevs[k.Type] = combination
}
return true, tmpDevs, ""
}
}
// ...}
Fit 函数的整体调度流程如下图所示:

策略一:多卡任务 —— “最佳匹配”优先
对于请求多个 GPU 的任务,目标是选出内部通信总分最高的设备组合。
-
实现方式:
- 先筛选出所有满足资源条件的空闲 GPU。
- 调用
generateCombinations枚举所有可能的设备组合。 - 使用
computeBestCombination遍历各组合,基于“通信分表”计算每组内所有设备对之间的分数总和。 - 返回总分最高的组合,确保任务运行在通信效率最佳的 GPU 子集上。
其核心逻辑示意图如下:
策略二:单卡任务 —— “最小破坏”优先
对于仅申请一块 GPU 的任务,策略转为保护整体拓扑完整性,避免占用关键连接节点。
-
实现方式:
- 调用
computeWorstSignleCard函数。 - 遍历所有可用 GPU,计算每张卡与其他可用卡的通信分数总和。
- 选择总分最低的 GPU,通常这类卡处于拓扑边缘位置,对其分配不会影响未来多卡任务的调度质量。
- 调用
其核心逻辑示意如下:
四、使用方法说明
用户只需添加一条 Annotation 即可激活拓扑感知调度功能,系统将根据请求的 GPU 数量自动应用相应策略。
apiVersion: v1 kind: Pod metadata: name: gpu-topology-aware-job annotations:启用拓扑感知调度
hami.io/gpu-scheduler-policy: "topology-aware" # 系统将自动: # - 为多卡任务选择通信最优的 GPU 组合 # - 为单卡任务选择对拓扑影响最小的设备spec: containers:
- name: cuda-container
image: nvidia/cuda:11.6.2-base-ubuntu20.04
command: ["sleep", "infinity"]
resources:
limits:
请求4个GPU
nvidia.com/gpu: "4"
五、总结
HAMi 实现的 NVIDIA GPU 拓扑感知调度,展现了清晰而前瞻的工程设计理念:以动态感知替代静态配置,以全局优化取代局部贪心。设备端集成的双策略寻优算法,在消费预先计算的“通信分数”基础上,既保障了单个任务的极致性能表现,又维护了集群资源的长期可用性与调度灵活性。这一机制为云原生环境下大规模 AI 训练与科学计算任务提供了强有力的底层支持。
参考资料
- 设计文档:NVIDIA GPU Topology Scheduler
- 使用文档:NVIDIA GPU 拓扑调度启用指南
-
相关 PRs:
- https://github.com/Project-HAMi/HAMi/pull/1018
- https://github.com/Project-HAMi/HAMi/pull/1028
再次诚挚感谢社区贡献者 @lengrongfu、@fyp711 对本特性的开发与推动!
网友留言(0 条)