场景描述 本文介绍了混合云场景中,自建 Kubernetes服务,线下集群+云上弹性扩 展阿里云GPU服务实例+飞天AI加速工 具,并采用阿里云CPFS存储,运行AI训 练+AI推理作业的操作步骤。 解决问题 1.利用云企业网打通两个地域的VPC, 自建Kubernetes集群 2.使用飞天AI加速工具运行训练和推理 作业 3.使用CPFS存储共享数据 产品列表 云企业网CEN GPU云服务器 并行文件存储CPFS 文件存储NAS
Perseus Inference Client提供客户端 API接 口,应用程序调用这些接口去请求 Perseus Model Server的推理服务。Perseus Inference目前提供容器的部署方式,它依赖于 CUDA10、CUDNN7 和 TensorRT5,用户需要在 NVIDIA GPU机器上安装 docker和 nvidia-docker 运行环境以满足 Perseus Inference容器的运行需求。阿里云提供 ...