场景描述 本方案适用于使用GPU进行AI在线推理的场 景。在推理之前,模型已经训练完成。例如,刷脸 支付中,我们在刷脸的时候,就是推理的一个过 程。再比如图像分类,目标检测,语音识别,语 义分析等返回结果的过程。 解决问题 使用GPU云服务器搭建推理环境 使用容器服务Kubernetes版构建推理 环境 使用NAS存储模型数据 使用飞天AI加速推理工具加速推理 产品列表 GPU云服务器 容器服务Kubernetes版 NAS共享存储
Perseus Inference Client提供客户端 API接口,应用程序调用这些接口去请求 Perseus Model Server的推理服务。Perseus Inference目前提供容器的部署方式,它依赖于 CUDA10、CUDNN7和 TensorRT5,用户需要在 NVIDIA GPU 机器上安装 docker 和 nvidia-docker 运行环境以满足 Perseus Inference容器的运行需求。阿里云提供 ...