1、 GPU节点安装好NVIDIA驱动和 nvidia-docker套件。 docker daemon运行时配置启动 nvidia runtime运行时。2、Kubernetes开启vGPU支持, 将新增K8S 资源类型 nvidia.com/gpu 被容器请求: 3、配置好AI模型相关的TensorFlow , torch, mxnet 、mindspore 、xgboost 、 nccl ...
显示全部1、 GPU节点安装好NVIDIA驱动和 nvidia-docker套件。 docker daemon运行时配置启动 nvidia runtime运行时。
2、Kubernetes开启vGPU支持, 将新增K8S 资源类型 nvidia.com/gpu 被容器请求:
3、配置好AI模型相关的TensorFlow , torch, mxnet 、mindspore 、xgboost 、 nccl 框架
4、执行 AI模型的训练 任务或推理应用
收起