GPU服务器人工智能领域的应用也比较多。在教学场景中,对GPU虚拟化的要求比较高。根据课堂人数,一个老师可能需要将GPU服务器虚拟出30甚至60个虚拟GPU,因此批量Training对GPU要求比较高,通常用V100做GPU的训练。模型训练完之后需要进行推理,因此推理一般会使用P4或者T4,少部分情况也会用V100。RTX 2060(6 GB):你想在业余时间探索深度学习。
RTX 2070或2080(8 GB):你在认真研究深度学习,但GPU预算不多。8 GB的VRAM适用于大多数模型。
RTX 2080 Ti(11 GB):你在认真研究深度学习并且您的GPU预算中等。RTX 2080 Ti比RTX 2080快大约40%。
Titan RTX和Quadro RTX 6000(24 GB):你正在广泛使用现代模型,但却没有足够买下RTX 8000的预算。
Quadro RTX 8000(48 GB):你要么是想投资未来,要么是在研究2020年最新最酷炫的模型。
现在都是选择呆猫会提供GPU服务器,普通电脑都可以轻松运行高算力的电脑服务。同样的烦恼,但是在选择GPU服务器的时候我也是挑选了很久,在网上找了很多专门做服务器的公司,也是做了很长时间的考察、对比。当时看到思腾合力合作客户还挺多的,像清华、北大、北京理工大学,中科院计算所,中科院自动化所,还有一些人工智能公司都有过合作,觉得还挺不错的,就深入了解了下,客服也是很耐心的像我讲解了很多,最终就选择了思腾合力。你也可以去了解下,说不定正适合你。谢谢你对我们的支持,希望我的回答能有所作用,欢迎追问,再次表示感谢!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)