1. 构建一个C++插件来实现与CUDA的交互;
2. 将CUDA程序编译为动态链接库(DLL)文件;
3. 在UE5项目中添加动态链接库;
4. 在C++插件中使用动态链接库调用CUDA程序。
具体来说,您可以按照以下步骤 *** 作:
1. 在UE5中创建一个新的插件项目。
2. 在插件项目中添加包含CUDA代码的源文件,并将其编译为动态链接库。
3. 在插件项目中添加包含CUDA头文件以及相关库文件的路径。
4. 在插件代码中使用动态链接库调用CUDA程序。
需要注意的是,在开发过程中还需要注意以下几点:
1. 编译CUDA程序时需要使用正确的编译器和CUDA工具包版本;
2. 需要确保CUDA代码能够在动态链接库中正常运行;
3. 如果需要在多个平台上使用该插件,则需要对不同平台进行编译并添加平台特定的代码。
总的来说,与CUDA的交互需要比较深入的技术知识,我们建议您在开始之前做好充分的准备和了解相关知识。
直接运行 cuda_10.1.105_418.39_linux.run ,然后按照要求一步步 *** 作就可以了。这里需要注意的是,因为已经安装了其他版本的cuda和驱动。所以,在安装的时候,不需要安装驱动。
其实,这里最主要想说的是cudnn的安装,安装的过程碰到了一点问题。刚开始,按照以前的方法,直接执行命令:
看命令的第一行,直接把cudnn.h复制到cuda-10.1的安装目录下。问题就出在这里,复制之后执行命令 cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 查看cudnn版本,结果发现没任何输出。
找到cudnn.h这个文件,发现文件的内容和较早cuDNN v7.0.5版本少了很多内容。于是,找到官方安装文档 https://docs.nvidia.com/deeplearning/cudnn/archives/cudnn-803/install-guide/index.html 。官方文档给出的命令为:
注意到,第一行命令和以前不一样,然后进到文件夹仔细查看这些cudnn*.h这些文件。发现官方只是把以前的cudnn.h的内容拆分到了多个文件中。这里只需要按照官方的指令重新复制就可以了。
还有一点需要注意,cudnn的版本信息被放到了cudnn_version.h文件中,所以,这里想要查看cudnn的版本信息,应该使用指令 cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2 。
PS:安装软件还是要先看官方文档,以官方文档为准,避免安装的时候出现问题。
可以看到这里有3个版本的cuda,我们只需要在/usr/local目录下新建一个软链接cuda,直接让cuda指向某一个版本的cuda文件夹就可以了。比如,这里我们使用最新的10.1版本: sudo ln -s /usr/local/cuda-10.1 /usr/local/cuda 。以后,如果想切换其他版本的cuda,只需要修改软链接的指向。
最后,将/usr/local/cuda写入到环境变量。通过vi ~/.bashrc打开文件,然后将以下命令加入到文件末尾:
然后source一下,使其立即生效: source ~/.bashrc 。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)