- 一、CUDA安装
- 二、CUDNN安装
- 三、TensorRT安装
- 点击CUDA安装包。
- 提取缓存文件。
- 检查系统兼容性,同意软件许可协议。
- 选择自定义安装,在已安装NVIDIA驱动的情况下,仅选择第一项CUDA,安装即可。
注意在安装多版本CUDA时,不勾选Visual Studio Integration,否则由于此插件冲突会报错,导致安装失败。其他步骤完全一样。
安装失败示意图
- CUDA安装成功测试。
# 命令提示符输入 nvcc -V二、CUDNN安装
- 将CUDNN压缩包解压。
- 分别将bin、include、libx64路径下的文件复制到对应的cuda目录下。
copy cudnncudabin* C:Program FilesNVIDIA GPU Computing ToolkitCUDAv10.2bin copy cudnncudainclude* C:Program FilesNVIDIA GPU Computing ToolkitCUDAv10.2include copy cudnncudalibx64* C:Program FilesNVIDIA GPU Computing ToolkitCUDAv10.2libx64
- 查看环境变量,能够看到两个版本CUDA,改变CUDA_PATH即可选择不同的CUDA版本。
- 解压TensorRT压缩包。
- 将TensorRT文件夹移动至D:Program Files (x86),并把TensorRTlib、TensorRTinclude和TensorRTbin添加至环境变量。
- 将TensorRTlib下的.dll文件复制到cuda安装目录C:Program Files NVIDIA GPU Computing ToolkitCUDAv10.2bin。
- 在虚拟环境中安装whl库文件。
conda activate pytorch1.8 cd python # 选择对应的Python版本 pip install tensorrt.whl # 安装graphsurgeon cd ../graphsurgeon pip install graphsurgeon.whl # 安装uff(TensorRT与TensorFlow配合试用时) cd ../uff pip install uff.whl
- 测试
参考
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)