GPU深度学习环境配置

GPU深度学习环境配置,第1张

配置之前,先说一下基础概念。

显卡驱动

显卡驱动就是用来驱动显卡的程序,它是硬件所对应的软件。驱动程序即添加到 *** 作系统中的一小
块代码,其中包含有关硬件设备的信息。

CUDA

CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™
是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指
令集架构(ISA)以及GPU内部的并行计算引擎。 开发人员可以使用C语言来为CUDA™架构编写程序,
所编写出的程序可以在支持CUDA™的处理器上以超高性能运行。CUDA3.0已经开始支持C++和
FORTRAN。

CUDA和cudatoolkit的区别

在使用conda 安装pytorch深度学习框架时,可以发现通常会自动安装对应版本的cudatoolkit。

上述安装的 cudatoolkit 与通过 Nvidia 官方提供的 CUDA Toolkit 是不一样的。具体而言,Nvidia
官方提供的 CUDA Toolkit 是一个完整的工具安装包,其中提供了 Nvidia 驱动程序、开发 CUDA 程序相
关的开发工具包等可供安装的选项。使用 Nvidia 官网提供的 CUDA Toolkit 可以安装开发 CUDA 程序所
需的工具,包括 CUDA 程序的编译器、IDE、调试器等,CUDA 程序所对应的各式库文件以及它们的头
文件。上述 CUDA Toolkit 的具体组成可参考 CUDA Toolkit Major Components.

实际上,Nvidia 官方提供安装的 CUDA Toolkit 包含了进行 CUDA 相关程序开发的编译、调试等过
程相关的所有组件。但对于 Pytorch 之类的深度学习框架而言,其在大多数需要使用 GPU 的情况中只
需要使用 CUDA 的动态链接库支持程序的运行( Pytorch 本身与 CUDA 相关的部分是提前编译好的 ),
就像常见的可执行程序一样,不需要重新进行编译过程,只需要其所依赖的动态链接库存在即可正常运
行。故而,Anaconda 在安装 Pytorch 等会使用到 CUDA 的框架时,会自动为用户安装 cudatoolkit,
其主要包含应用程序在使用 CUDA 相关的功能时所依赖的动态链接库。在安装了 cudatoolkit 后,只要
系统上存在与当前的 cudatoolkit 所兼容的 Nvidia 驱动,则已经编译好的 CUDA 相关的程序就可以直
接运行,而不需要安装完整的 Nvidia 官方提供的 CUDA Toolkit .

总体来说,显卡驱动用来调用显卡,CUDA配置显卡支持深度学习计算,官网提供的CUDA包含完
全版的CUDA Toolkit,conda内部安装深度学习使用的CUDA Toolkit是个精简版的。

简而言之,如果我们想要配置一个深度学习环境,只需要按照如下 *** 作即可。

  1. 根据显卡安装对应显卡驱动;
  2. 安装对应版本的CUDA或使用conda安装对应版本的cudatoolkit;

英伟达显卡驱动网站:

https://www.nvidia.com/Download/index.aspx?lang=cn

显卡和CUDA对应关系


conda安装方式:torch和cuda版本对应

https://pytorch.org/get-started/previous-versions/


注意点:当前时间2022.4.21,3090显卡需要保证cuda版本在11以上,torch版本在1.8以上。

新手入门,如有错误,还望指出!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/717013.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-25
下一篇 2022-04-25

发表评论

登录后才能评论

评论列表(0条)

保存