KubeVirt上的虚拟化GPU工作负载

2020-02-20 16:59:03 浏览数 (1)

作者:Pedro Ibanez Requena

在这段2019年北美KubeCon视频中,Red Hat的David Vossel和NVIDIA的Vishesh Tanksale探索了KubeVirt背后的架构,以及NVIDIA如何利用该架构为Kubernetes上的GPU工作负载提供动力。以NVIDIA的GPU工作负载为例进行研究,它们提供了一个重点视图,以了解主机设备透传是如何通过KubeVirt完成的,并提供了一些性能指标,将KubeVirt与独立KVM进行比较。

https://www.youtube.com/watch?v=Qejlyny0G58

https://v.qq.com/x/page/s3031occ4r7.html

KubeVirt介绍

David介绍了KubeVirt是什么和不是什么:

  • KubeVirt不参与管理AWS或GCP实例
  • KubeVirt不是Firecracker或Kata容器的竞争对手
  • KubeVirt不是一个容器运行时替换

他喜欢把KubeVirt定义为:

KubeVirt是Kubernetes的一个扩展,它允许与容器工作负载一起原生运行传统的VM工作负载。

但是为什么需要KubeVirt呢?

  • 已经有了像OpenStack、oVirt这样的本地解决方案
  • 然后是公共云,AWS、GCP、Azure
  • 为什么我们又要做VM管理的事情呢?

答案是,最初的动机是基础设施的融合:

迈向云模型的转型包括多个栈、容器和VM、旧代码和新代码。KubeVirt简化了这一切,只需要一个栈来管理容器和VM来运行旧代码和新代码。

工作流的融合意味着:

  • 将VM管理合并到容器管理工作流中
  • 对容器和虚拟机使用相同的工具(kubectl)
  • 保持用于VM管理的声明性API(就像pod、deployment等…)

YAML中VM实例的一个例子可以像下面这样简单:

代码语言:javascript复制
$ cat <<EOF | kubectl create -f -
apiVersion: kubevirt.io/v1alpha1
kind: VirtualMachineInstance
...
 spec:
  domain:
   cpu: 
    cores: 2
   devices:
    disk: fedora29

架构

事实是,KubeVirt VM是在pod中运行的KVM qemu进程。就是这么简单。

VM启动流程如下图所示。用户向集群发布VM清单,直到Kubelet启动VM pod。最后,virt-handler指示virt-launcher如何启动qemu。

KubeVirt中的存储以与pod相同的方式使用,如果需要在VM中有持久存储,则需要创建PVC(持久卷声明)。

例如,如果您的电脑中有一个VM,您可以使用容器数据导入器(containerized-data-importer,CDI)将该镜像上载到PVC,然后您可以将该PVC附加到VM pod以使其运行。

关于网络服务的使用,流量以与容器工作负载相同的方式路由到KubeVirt VM。Multus还可以为每个VM提供不同的网络接口。

For using the Host Resources:

  • VM Guest CPU and NUMA Affinity
    • CPU Manager (pinning)
    • Topology Manager (NUMA nodes)
  • VM Guest CPU/MEM requirements
    • POD resource request/limits
  • VM Guest use of Host Devices
    • Device Plugins for access to (/dev/kvm, SR-IOV, GPU passthrough)
    • POD resource request/limits for device allocation

在Kubevirt虚拟机的GPU/vGPU

在David的介绍之后,Vishesh接手并深入讨论了VM中GPU的原因和方法。许多新的机器和深度学习应用程序正在利用GPU处理工作负载。如今,大数据是GPU的主要消费者之一,但仍有一些差距,游戏和专业图形部门仍然需要运行VM和具有原生GPU功能,这就是为什么NVIDIA决定与KubeVirt合作。

NVIDIA已经开发了KubeVirt GPU设备插件,它可以在GitHub上获得,它是开源的,任何人都可以查看并下载它。

使用设备插件框架是向GPU提供对Kubevirt虚拟机访问的自然选择,下图显示了涉及到GPU透传架构的不同层:

Vishesh还说明YAML代码的一个例子,可以看到包含NVIDIA的节点状态卡信息(节点有5个GPU),包含deviceName的虚拟机规范指向NVIDIA卡和Pod状态,用户可以设置资源的限制和要求。

The main Device Plugin Functions are:

  • GPU and vGPU device Discovery
    • GPUs with VFIO-PCI driver on the host are identified
    • vGPUs configured using Nvidia vGPU manager are identified
  • GPU and vGPU device Advertising
    • Discovered devices are advertised to kubelet as allocatable resources
  • GPU and vGPU device Allocation
    • Returns the PCI address of allocated GPU device
  • GPU and vGPU Health Check
    • Performs health check on the discovered GPU and vGPU devices

为了理解GPU是如何通过生命周期工作的,Vishesh用下图展示了不同阶段的过程:

在下面的图表中,有一些NVIDIA使用KubeVirt的关键功能:

如果您对生命周期如何工作的细节感兴趣,或者对NVIDIA为什么高度使用上面列出的KubeVirt特性感兴趣,您可能会对下面的视频感兴趣。

视频

PDF

https://static.sched.com/hosted_files/kccncna19/31/KubeCon 2019 - Virtualized GPU Workloads on KubeVirt.pdf

演讲者

David Vossel是红帽公司的首席软件工程师。他目前正致力于OpenShift的容器原生虚拟化(Container Native Virtualization,CNV),并且是开源KubeVirt项目的核心贡献者。

Vishesh Tanksale目前是NVIDIA的高级软件工程师。他专注于在Kubernetes集群上启用VM工作负载管理的不同方面。他对VM上的GPU工作负载特别感兴趣。他是CNCF Sanbox项目Kubevirt的积极贡献者。

0 人点赞