在 Anaconda 中安装 TensorFlow-gpu 2.0(无需下载 CUDA)

简介: 在 Anaconda 中安装 TensorFlow-gpu 2.0(无需下载 CUDA)Anaconda 现在最高只支持 TensorFlow 1.13,还不能直接用 Anaconda 安装 2.0。

在 Anaconda 中安装 TensorFlow-gpu 2.0(无需下载 CUDA)
Anaconda 现在最高只支持 TensorFlow 1.13,还不能直接用 Anaconda 安装 2.0。

TensorFlow 2.0 需要 cuDNN >= 7.4.1,好在现在 Anaconda 的 cudnn 最高支持 7.6.0 了,所以可以直接使用 conda 安装。

下面这个方法只是针对当前使用,当 Anaconda 支持 2.0 之后,就可以直接使用 conda install tensorflow 安装了,我也是这次才发现 Anaconda 会直接把 CUDA 和 cuDNN 装好,一条龙服务。

在此强烈建议使用 Anaconda 直接安装 TensorFlow!!!免去折腾搭建环境烦恼!

conda search tensorflow --info 和 conda search tensorflow-gpu --info 可以查看当前 Anaconda 支持的 TensorFlow CPU 和 GPU 版本。

下面开始正题:

先创建一个新的环境来安装 TensorFlow。
conda create -n tf2.0 python=3.6
1
然后激活环境
conda activate tf2.0
1
先使用 pip 安装 TensorFlow 2.0
pip install tensorflow-gpu==2.0.0-beta0
1
然后在 Conda 中安装 cudatoolkit, cudnn, numba。Numba 用于支持 Anaconda 找到安装的 cudatoolkit 和 cudnn。
conda install cudnn cudatoolkit numba
1

运行 numba 检查 cudatoolkit 和 cuDNN。
numba -s
1
如果看到这些都 ok ,就没什么问题了。

Summary:

1/1 devices are supported

CUDA driver version : 10010
CUDA libraries:
Finding cublas

named  libcublas.so.10.2.0.168
trying to open library...    ok

Finding cusparse

named  libcusparse.so.10.1.168
trying to open library...    ok

Finding cufft

named  libcufft.so.10.1.168
trying to open library...    ok

Finding curand

named  libcurand.so.10.1.168
trying to open library...    ok

Finding nvvm

named  libnvvm.so.3.3.0
trying to open library...    ok
finding libdevice for compute_20...    ok
finding libdevice for compute_30...    ok
finding libdevice for compute_35...    ok
finding libdevice for compute_50...    ok

打开 Python,运行 TensorFlow!

仅针对 TensorFlow 2.0

import tensorflow as tf
print(tf.reduce_sum(tf.random.normal([1000, 1000])))

tf.Tensor(590.42694, shape=(), dtype=float32)
1
所以现在安装 TensorFlow 最方便的方法应该是直接通过 conda 安装,Pytorch 也是如此。

Anaconda 中 cudatoolkit 版本支持 7.5、8、9、10、10.1。

cuDNN 可选较少,支持 6.0、7.1.4(CUDA 8、9)、7.3.1(CUDA 9、10),7.6.0(CUDA 9、10、10.1)。

作者:蓝三金
来源:CSDN
原文:https://blog.csdn.net/qq_20084101/article/details/89148256
版权声明:本文为博主原创文章,转载请附上博文链接!

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
7天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
TensorFlow入门指南:基础概念与安装
【4月更文挑战第17天】TensorFlow入门指南介绍了该流行深度学习框架的基础概念和安装步骤。核心概念包括张量(多维数组)、计算图(表示计算任务的图结构)、会话(执行环境)以及变量(存储模型参数)。安装TensorFlow可通过pip或conda,GPU支持需额外条件。安装成功后,通过Python验证版本即可开始使用。
|
2月前
|
机器学习/深度学习 并行计算 API
【GPU】CUDA是什么?以及学习路线图!
【GPU】CUDA是什么?以及学习路线图!
93 0
|
4月前
|
弹性计算 运维 监控
GPU实例使用--vGPU驱动自动安装和升级
为了适配最新的渲染软件,以及驱动稳定性的提升,vGPU实例的驱动需要定期进行升级,因为使用vgpu的客户多数为渲染和云游戏等业务场景,对vGPU驱动的快速升级和批量自动化要求比较高。
GPU实例使用--vGPU驱动自动安装和升级
|
4月前
|
并行计算 TensorFlow 调度
推荐场景GPU优化的探索与实践:CUDA Graph与多流并行的比较与分析
RTP 系统(即 Rank Service),是一个面向搜索和推荐的 ranking 需求,支持多种模型的在线 inference 服务,是阿里智能引擎团队沉淀多年的技术产品。今年,团队在推荐场景的GPU性能优化上又做了新尝试——在RTP上集成了Multi Stream,改变了TensorFlow的单流机制,让多流的执行并行,作为增加GPU并行度的另一种选择。本文详细介绍与比较了CUDA Graph与多流并行这两个方案,以及团队的实践成果与心得。
|
4月前
|
并行计算 Linux Docker
Docker【部署 07】镜像内安装tensorflow-gpu及调用GPU多个问题处理Could not find cuda drivers+unable to find libcuda.so...
Docker【部署 07】镜像内安装tensorflow-gpu及调用GPU多个问题处理Could not find cuda drivers+unable to find libcuda.so...
272 0
|
4月前
|
JSON TensorFlow 算法框架/工具
Windows下安装Anaconda5.3.1+Python3.8+TensorFlow2.13.0-CPU版本总结
Windows下安装Anaconda5.3.1+Python3.8+TensorFlow2.13.0-CPU版本总结
115 0
|
9天前
|
机器学习/深度学习 并行计算 算法框架/工具
Anaconda+Cuda+Cudnn+Pytorch(GPU版)+Pycharm+Win11深度学习环境配置
Anaconda+Cuda+Cudnn+Pytorch(GPU版)+Pycharm+Win11深度学习环境配置
|
1月前
|
并行计算 API C++
GPU 硬件与 CUDA 程序开发工具
GPU 硬件与 CUDA 程序开发工具
48 0
|
2月前
|
并行计算 API 开发工具
【GPU】GPU 硬件与 CUDA 程序开发工具
【GPU】GPU 硬件与 CUDA 程序开发工具
42 0
|
2月前
|
机器学习/深度学习 并行计算 流计算
【GPU】GPU CUDA 编程的基本原理是什么?
【GPU】GPU CUDA 编程的基本原理是什么?
48 0