国产唯一GPU,景嘉微

国产唯一GPU,景嘉微,第1张

GPU是什么?

GPU(Graphic Processing Unit)即图形处理器,其核心优势在于解决 数据 并行计算问题。

与CPU(Central Processing Unit,中央处理器)相比,GPU拥有更多的算数单元。CPU虽然有多核,但总数没有超过两位数,每个核都有足够大的缓存和足够多的数字及逻辑运算单元,并辅助很多加速分支判断甚至更复杂的逻辑判断硬件;GPU的核数远超CPU,被称为众核(NVIDIA Fermi有512个核),每个核拥有的缓存相对较小,数字逻辑运算单元少且简单。

GPU的分类具有两种维度:

一是根据与CPU的关系,GPU分为独立GPU和集成GPU。 按照是否呈独立的板卡存在,GPU可分为独立GPU和集成GPU。独立GPU(discrete GPU)使用了专用的显示存储器(显存),显存带宽决定了和GPU的连接速度。集成GPU(integrated GPU)与CPU集成于芯片组中,和CPU共享内存带宽。因此,独立GPU运算性能强但功耗和成本高,集成GPU则反之。

二是按应用终端分类,可分为PC GPU、服务器GPU、移动GPU。 其中,PC GPU应用于PC端,既有集成GPU,也有独立GPU;服务器GPU应用于服务器,可做专业可视化、计算加速、深度学习等应用;移动GPU受限于移动端功耗与体积的限制,一般都是集成GPU。

运算能力和功耗是评价GPU的两大重要指标。

显卡厂商将GPU芯片、显存、散热器、显卡接口等包装成完整的一个独立显卡,因此独立显卡可从运算性能和功耗散热两方面来评价,其中运算能力和数据存储能力共同决定了独立显卡的运算性能,而功耗和散热可以从散热设计功耗(TDP)和散热设计两方面考察。

集成GPU的评价在独立显卡的基础上还要额外考虑内存带宽。集成GPU一般用在移动端,不配备独立显存,而是与CPU共用内存,因此内存带宽代替显存带宽成为集成GPU的重要指标。

从市场格局来看,

GPU竞争壁垒高,强者恒强。 GPU有着较高的资本和技术壁垒,寡头垄断市场且集中度不断提升。PC时代,Intel 借CPU捆绑销售了大量集成GPU,占PC GPU市场份额第一。随着独立GPU份额不断扩大,NVIDIA和AMD逐渐崛起。移动互联网浪潮的兴起,让移动GPU市场崛起了ARM 、Imagination等公司

①PC GPU市场格局:Intel占领集显市场,NVIDA和AMD分享独显份额。 目前全球PC GPU市场参与者主要为Intel、NVIDIA以及AMD。其中集成GPU由于其与CPU集合的特性,由Intel一家独大;独立显卡市场则由NVIDA(英伟达)和AMD(超威半导体)占据。根据JPR统计,2018年四季度个人电脑用独立GPU产品市场,NVDIA份额攀升至812%,AMD下滑到188%。对比2018年三季度,AMD份额为257%,2017年四季度更是占领330%的市场。AMD在独显领域,市场份额呈下滑趋势。

②移动GPU市场格局:五强抗衡,ARM第一。 移动端GPU的发展主要受智能手机发展推动。受限于芯片的面积、能耗以及成本,移动端GPU的性能较PC端GPU更低。2015年移动GPU领域市场份额前5的厂商分别是ARM、Imagination、Qualcomm、Vivante和NVIDIA。据Digitimes统计,2015年ARM全球移动GPU市占率达386%,中国市场市占率接近70%。

国内独立GPU市场空间达250亿元。

英伟达全年市占率约为75%。 JM7200相较初代产品JM5400性能已实现较大突破,能够满足基本办公和显示要求。作为国内唯一量产GPU的企业,随着国产GPU渗透率逐渐提升,公司业绩有望充分受益。

景嘉微在国产GPU领域的竞争对手包括三大派系:

①中船系:包括中船重工709所和中船重工716所。

716所自主研发的JARI G12 采用混合渲染架构,兼顾数据带宽和渲染延时需求,极大的增强了芯片的灵活性和适应性,该GPU不仅支持Windows、Linux、VxWorks等主流 *** 作系统,同时也支持中标麒麟、JARI-Works、道等国内 *** 作系统,

②学术系:以西邮微电为代表。 西邮微 电子 科技 有限公司脱胎于西安邮电大学GPU团队,其团队技术指导李涛教授,2009年从 美国 返回受聘西安邮电大学工作,是陕西省百人计划特聘专家,现任西安邮电大学陕西省通信专用集成电路设计工程技术研究中心总工程师。

西邮微电的代表GPU芯片为 “萤火虫1号”,该款芯片历经西安邮电大学GPU团队6年研发,于2015年12月通过了陕西省 科技 厅主持的成果鉴定。“萤火虫1号”主要包括leon3开源处理器、独立自主设计研发的GPU firefly,其3D图形渲染引擎采用传统图形渲染管线技术,共包含14个渲染核以及若干硬件加速。该芯片运行频率最高为250MHz,峰值计算速度可达25-3GFlops,目前主要作为自主设计研发的GPU雏形芯片。

③引进系:以中科曙光为代表。 中科曙光在CPU领域与AMD进行深度合作,后者2018一季度AMD在PC GPU市占率为149%,在独显GPU领域市占率为349%。2018年6月,AMD在台北展出了全球首款采用7nm技术的GPU芯片,内部整合了四颗二代高带宽显存(4×HBM2),总容量达到了32GB。近年来AMD的GPU业务发展迅速,预计将对中科曙光的GPU业务发展起积极作用。与中科曙光类似的还包括收购了Imagination的凯桥资本以及收购美国图芯的芯原。

景嘉微

公司推出的JM5400芯片打破了外国芯片在我国高性能GPU领域的垄断,填补了国内的市场空白。

2018年9月公司第二代GPU产品JM7200完成流片、 封装阶段工作,基本功能测试符合设计要求。但仅从显卡参数上,国内GPU与国外先进GPU仍存在较大差距, 保守估计技术水平落后6年时间,预计国产GPU短期内在民用市场较难取得突破。

公司的主要产品

公司在图像显控领域主要包括以下几种产品:

图形显控模块: 是信息融合和显示处理的“大脑”,广泛应用于固定翼飞机、旋转翼飞机及其他特种军用飞机等各类机型,可应用于军用舰艇、坦克装甲车等舰载、车载领域。图形显控模块是公司研发最早、积淀最深、也是目前最核心的产品,在国内机载航电系统图形显控领域占据大部分市场份额。

图形处理芯片 :是图形显控模块最核心的信息处理部件,决定着图形显控模块及整个图形显控系统性能的优劣。公司研发的以JM5400为代表的图形芯片打破外国芯片在我国军用GPU领域的垄断,率先实现军用GPU国产化。公司依托在芯片领域丰富的研发及应用经验,正在逐步 探索 向通用芯片领域延伸,目前已在音频芯片、蓝牙芯片等领域取得了突破

加固显示器: 主要作为军用飞机后舱任务系统的显示输出设备。同时采用了热学设计、力学设计、电磁兼容设计等技术,具有抗振、适应宽温工作环境和符合国军标电磁兼容要求的能力。

加固电子盘: 主要用于存储军用飞机航行过程中收集到的各种图形、态势信息数据。小容量的加固电子盘一般配套安装于图形显控模块,大容量的加固电子盘主要用作特种飞机上的独立存储设备。同时,加固电子盘具备加密、自毁等功能。

加固计算机: 主要应用于地面工作站对飞行器采集的图形、态势信息数据进行处理分析。公司利用在相关领域的技术优势,积极参与无人机地面站方舱车辆中加固计算机的科研、生产及服务,将航电领域的优势延伸至无人机地面显控、信息处理领域。公司先后承接了多个型号的加固计算机任务,已在无人机地面站领域占据一席之地。

公司开发的产品具根据客户要求定制开发、模块化设计集成度高、可靠新高、 生命周期 长等特点,叠加我国军用飞机需求不断上升,民用航空市场广阔的时代机遇,公司将依靠深厚的技术积累以及先发优势不断拓展市场空间,巩固国产图显显控领域的龙头地位。

公司目前的客户和销售模式

公司资质齐全,已打入军工集团供应商体系。

公司产品绝大部分为定制化军用电子核心模块,客户主要是国有军工集团下属单位,包括中航工业集团、中国电子 科技 集团以及中船重工集团等,客户集中度高。 中航工业集团是我国负责军用飞机研发、生产的军工集团,公司紧跟中航工业集团,等于牢牢占据军机航空显控市场。 2017年公司第一大客户占公司销售额为8766%;中航工业其下中国航空无线电电子研究所(简称中航工业615所)是中航工业负责军用飞机显控系统的主要制造商。该所主要从事航空电子系统总体与综合,航空电子核心处理与综合应用技术以及航空无线电通讯导航技术三大领域的研究和相关产品的研制和生产。

目新一代GPU JM7200适配顺利,加速产业化应用

前公司JM7200芯片已完成与龙芯、飞腾、银河麒麟、中标麒麟、国心泰山、道、天脉等国内主要的CPU和 *** 作系统厂商的适配工作,与中国长城、超越电子等十余家国内主要计算机整机厂商建立合作关系并进行产品测试 ,大力开展进一步适配与市场推广工作。 报告期内,公司JM7200芯片已经获得部分产品订单,将有利于JM7200的大力推广,加速批量订单落地速度。同时,公司下一代芯片研发已进入工程研制阶段,目前已完成可行性论证和方案论证,正在进行前端设计和软件设计

新产品的开发

2018年12月28日,公司向国家集成电路基金、湖南高新纵横共两名特定对象增发的30,596,174股,募集资金总额不超过1088亿元, 用于高性能GPU研发,以及MCU、低功耗蓝牙、Type-C&PD接口三类通用芯片项目

本次项目所研发的JM9231、JM9271产品是面向不同应用领域的两款中、高档系列产品,采用国际同类公司通用做法,根据业界主流的统一渲染架构,支持OpenGL45,在同一架构下,通过减少运算单元数量、渲染通道、显存带宽等手段,降低产品成本。

JM9231 是系公司正在研制的下一代GPU芯片的进一步升级,首先架构上采用了业界主流的统一渲染架构,支持OpenGL45,OpenCL12 API接口,可以无缝兼容市面上主流的CPU、 *** 作系统和应用程序,跟国际同类公司2016年中低端产品性能相当,主要针对国内办公电脑,便携式计算机、中低端的 游戏 机和高端嵌入式系统等消费电子领域,对图形生成和显示能力进行优化和进一步提高。

JM9271采用跟JM9231相同的 统一渲染架构,支持OpenGL45、OpenCL20API接口,通过增加运算单元数量,提高显存带宽,总线和输出接口速率,使得科学计算能 力得到了大幅度提升,可以达到国际同类公司2017年中高端产品的性能,主要针对人工智能、安防监控、语音识别、深度学习、云计算等对计算速度要求非常高的高端应用领域,在JM9231基础上对科学计算能力进行大幅度提高和改进,并针对人工智能领域开发相关的运算库和高性能计算平台,满足客户不同应用需求。

2018年11月28日,景嘉微宣布与中国长城就多领域展开合作:

1)共同开展基于 CPU、GPU、DSP、网络交换芯片、 *** 作系统的计算机整机升级换代的研发工作,推动产业化;解决关键软硬件兼容性问题,完善芯片适配,尽快实现广泛应用;

2)在基于支持 OpenGL 标准的高性能图形处理芯片,视频信号采集转换、编解码压缩、处理传输等技术,二三维地理信息数据应用等显控模块研发上开展技术合作,共同完善计算机系统的软硬件配置及其应用生态;

3)在无线 通信 产品、微波射频和信号处理产品、存储记录数据处理产品等领域开展应用合作;

4)在核心技术引进、关键技术产业化方面,建立投资标的信息及资源共享、互通机制;

5)共同推进信息安全产业链的发展,在计算机装备和民用信息安全基础设施领域展开广泛合作;

6)建立政府项目联合申报机制,共同申报国家级、省内外重大专项,支撑重大战略、项目落地。

携手核工业背景厂商KALRAY共同推进可编程通用芯片发展

长沙景嘉微电子股份有限公司的全资子公司长沙景美集成电路设计有限公司与KALRAYSA签署了《OEMANDDISTRIBUTORAGREEMENT》。景美与KALRAY公司将进行深度业务和技术合作,共同推进可编程通用计算芯片的发展。

KALRAY拥有核工业背景。 成立于2008年,获得法国可替代能源和原子能委员会(CEA)投资,公司同时也是CEA的供应商,它的极限运算技术最开始就是为CEA的核d实验模拟而定制开发的。除此之外,Kalray的主营项目还包括面向航空航天的重要内嵌系统开发及云计算业务。

KALRAY切入自动驾驶领域,打开新目标市场空间。 以超级计算芯片领域的优势,公司也加入了自动驾驶性能平台竞争的队伍中,推出了第一款面向自动驾驶 汽车 ,拥有288个VLIW内核的大规模并行处理器阵列芯片MPPA®处理器。

KALRAY拥有领先的多核处理器技术。 公司新一代芯片产品Bostan,内核处理器的数量达到了288个,它集成了16个计算集群,2MB的共享内存,每秒可处理数据量为80GB,拥有16个系统核。Bostan由于采用了片上网络NoC的通信方式,结合高速以太网接口(接口标准8GbE~10GbE),具有低延迟性的特点。

公司估值:

未来的发展空间

GPU性能在AI深度学习领域得以充分发挥。 GPU由于其在算法上的优化设计,成为目前深度学习领域应用最为广泛的核心芯片。GPU含有大量的逻辑核心,不依赖缓存,可使用更多内核进行数据的并行运算。作为当前主流的人工智能芯片,具有易于开发、软件生态完善、算力强等诸多优势。

无人驾驶 汽车 是人工智能在 汽车 行业的重大应用,需要传感器收集数据以及处理器对大量数据进行快速运算作为支撑。 英伟达已经开发了两代DrivePX无人驾驶 汽车 平台,其中DRIVEPX2搭载两颗NVIDIATegra处理器(共8个A57核心和4个Denver核心,共计12颗CPU和两颗基于NVIDIAPascal架构的新一代GPU,采用16nmFinFET工艺,单精度计算能力达到8TFlops,功耗250瓦。

摄像头采集;

1、音视频编解码;

2、流媒体协议;

3、音视频流推送到流媒体服务器;

4、流媒体网络分发;

5、用户播放器;

6、音视频同步;

7、网络延迟自适应;

8、需要录制,多种视频文件的格式和封装;

9、语言:C、C、html、php、mysql

10、开发环境:嵌入式,Linux,Windows,Web

还有就是视频播放解决方案(卡顿、延迟):

1、CDN加速;

2、自己架服务器;

3、用别人的云服务。

用CDN加速,可以尽量减少延迟。目前业内水准来看,视频延迟都在3-6秒之间。也就是在视频直播时,你看到的是几秒以前的画面。

自己架服务器,如果部署的数据中心不够多,那么遇上跨网、跨省的传输,还是得用CDN加速。那么为了尽可能降低延迟,你就需要在全国各省市都部署数据中心,来解决跨网、跨省的传输。用云服务的话,就是别人把服务器给你架好了,你只要傻瓜式的用就行了。当然,不管用哪种方式,综合权衡利弊,找到适合的方案就是最好的方案。

开发视频直播的流程有哪些:

1、采集;

2、前期处理;

3、编码;

4、传输;

5、解码;

6、渲染。

采集:iOS是比较简单的,Android则要做些机型适配工作。PC最麻烦各种奇葩摄像头驱动,出了问题特别不好处理,建议放弃PC只支持手机主播,目前几个新进的直播平台都是这样的。

前期处理:现在直播美颜已经是标配了,80%的主播没有美颜根本没法看。美颜算法需要懂图像处理算法的人,没有好的开源实现,要自己参考论文去研究。算法设计好了还要优化,无论你打算用CPU还是GPU优化,算法优化本身也需要专业知识支持。GPU虽然性能好,但是也是有功耗的。GPU占用太高会导致手机发烫,而手机发烫会导致摄像头采集掉帧。而这一切都是需要经验支撑。

编码:如果你要上720p,肯定要采用硬编码。软编码720p完全没希望,硬件编码不灵活。兼容性也有问题。如何适应纷繁复杂的网络和纷繁复杂的上下行设备?安卓和芯片的坑,开发过的人都知道。那有人问,要求不高,上软编码低分辨率360p行不行?就算上低分辨率,软编码还是会让CPU发烫,CPU过热烫到摄像头,长期发烫不仅直接反应是费电。既然是手机直播,插着电源和充电器实在说不过去吧。还有,CPU发烫会降频,怎么办?这还是只说性能方面。和前处理只影响图像质量和功耗不同,视频编解码技术还关联成本计算和网络对抗。考虑性能、功耗、成本、网络这四个之后你编码的码率、帧率、分辨率。软硬件开发该如何选择?

传输:自己做不现实,交给第三方服务商吧。

解码:如果你用硬解码,一定要做容错处理,一定要做适配。突然一个crash导致手机重启不好吧。安卓的硬解码,不说了。如果你加了网络目前手机的硬解码还不一定支撑用软解码,功耗发热的问题又来了。

渲染:为什么手机明明解码出好多帧数据。就是渲染不出来。为什么画面就是不同步。

以上是媒体模块,还有信令控制,登录、鉴权、权限管理、状态管理等等,各种应用服务,消息推送,聊天,礼物系统,支付系统,运营支持系统,统计系统等。后台还有数据库,缓存,分布式文件存储,消息队列,运维系统等。

以上技术要点的小结,确实能说明开发一个能用于生产环境的实时视频直播平台确非易事,跟IM里传统的实时音视频一样,这样的技术都是音视频编解码网络传输技术的综合应用体。

NVIDIA宣布加入支援vSphere、vCenter或vMotion,将可透过NVIDIAGPUCloud串接使用者从自有伺服器到VMwareCloudonAWS在内GPU加速需求,并且让NVIDIA的GPU虚拟化技术应用到更广泛领域,除了应用在科学研究、数据分析或人工智慧领域,更可针对布署在云端的现代化应用服务运作进行加速。

在此次VMWorld2019开始前,NVIDIA宣布针对人工智慧、学习训练与资料分析等需求,打造名为vComputeServer的应用服务,并且将NVIDIAGPUCloud、NGCContainers,甚至可将GPU加速平台RAPIDS在内资源带进VMware与AWS合作的云端服务-VMwareCloudonAWS,让更多科学研究、数据分析、人工智慧技术应用能借由虚拟化GPU进行加速。

相比过往借由云端协同运算,多半会因为云端服务采用的CPU运算阵列效能限制,使得运算效能不如预期,甚至无法对应资料量越来越庞大的运算需求。因此,NVIDIA在此次VMWrold2019与WMware的合作,并将GPU虚拟化应用带进VMware所提供服务,其中包含在VMware提供的vSphere整合名为vComputeServer的应用服务,同时也串接NVIDIAGPUCloud运算资源。

在此项合作里,将可让原本运用vSphere虚拟化平台的运算模式串接GPU运算资源,让vSphere平台产生的虚拟化机器可额外配置一张或多张虚拟化GPU,同时借由GPU加速整体运算效率,使得人工智慧学习、研究分析效率可大幅提升。除此之外,借由此项合作,使用者将能以更具d性方式调用GPU加速运算资源,而不一定必须建置自有GPU加速资源。

相比部分企业会在自有数据伺服器整合GPU加速资源,借此让整体数据运算效率提升,但难免必须承担建置与维护成本,同时仍可能面临运算规模成长时,必须有更大运算效能支撑的情况。因此,NVIDIA从2017年提出NVIDIAGPUCloud服务,并且标榜能串接GoogleCloud、AWS、阿里云、DGX、OracleCloud等云端平台,透过GPU虚拟化方式协助推动更大运算规模,同时缩减运算所需时间。

而在今年的GTC2019期间,NVIDIA更提出全新CUDA-XAI加速演算平台,透过Turing显示架构、TensorRT运算框架,并且可相容TuringTensorCores设计,进而推动各类人工智慧运算模型,NVIDIA强调约可带来50倍以上的加速运算效果,并且带来更大的人工智慧运算应用成长推力。

此次宣布加入支援vSphere、vCenter或vMotion,将可透过NVIDIAGPUCloud串接使用者从自有伺服器到VMwareCloudonAWS在内GPU加速需求,并且让NVIDIA的GPU虚拟化技术应用到更广泛领域,除了应用在科学研究、数据分析或人工智慧领域,更可针对布署在云端的现代化应用服务运作进行加速。

就NVIDIA说明,过去已经在GPU虚拟化技术投入深度发展,例如早期借由GRID技术建立的虚拟化PC,以及后来推动的虚拟化工作站,让GPU虚拟化能应用在更进阶的专业绘图应用,甚至支援专业数据分析、机器学习、人工智慧、深度学习,或是超算领域等应用,另外也能对应各类伺服器运算加速,并且确保运算资源能即时无缝串接、整合。

相比单纯以CPU阵列加速模式,借由GPU加速约可提升50倍以上的深度学习效率,同时也能确保资料校正,或是降低资料比对错误机率,另外借由GPU虚拟化也能减少企业必须自行建置硬体设备成本,而NVIDIA更提供可依照运算需求选择使用NVIDIAT4、V100,或是采用QuadroRTX8000、6000在内Turing显示架构GPU,甚至也能选择以Pascal显示架构打造的P40、P100与P60作为GPU虚拟化应用。

GPU服务器属于异构计算服务器,将并行计算负载放到协处理器上来。推荐的话,那首选一定是英伟达GPU服务器,或者选择英伟达授权的官方代 理商也是可以的。国内英伟达代 理商还是比较多的,思腾合力就是其中之一,有兴趣的话你可以去了解一下。思腾合力是英伟达精英级的合作伙伴,在原厂技术资源、GPU技术上都有多年的技术积累,还是非常不错的。

近日,36氪获悉,芯片设计公司砺算 科技 完成数亿元的天使轮融资,投资人包括达泰资本、将门创投、万物创投、海松资本、协立创投,本轮融资将主要用于研发基于自研盘古架构的天图GPU芯片。

砺算 科技 成立于2021年8月,公司主要研发图形渲染GPU。其产品构思是,基于自研盘古架构开发自主知识产权的GPU产品——TrueGPU 图形芯片,可用于端、云、边、车等多个场景,配合客户进行定制化开发,为客户提供高性能GPU板卡。

据Verified Market Research数据统计,2028年GPU市场有望达到2465亿美元,年平均增速高达3282%。 方舟基金创始人Cathie Wood预测,GPU在5年之后的市场规模将是CPU的两倍,GPU将占据计算系统的中心位置。中国渲染GPU的市场规模将超过1800亿人民币,从学习、工作、 娱乐 到智慧城市、数字内容创作、数字孪生、云宇宙、车载 娱乐 和医疗,以及高性能计算和AI计算,未来5年GPU的国产替代市场规模的年增长率将达到45%以上。

目前,该市场有着的国际GPU大厂有英伟达、AMD,和新加入市场的英特尔;国内则有着燧原、壁仞、沐曦、摩尔线程、景嘉微等公司。

在公司竞争壁垒上,联合创始人、联席CEO宣以方表示砺算 科技 科技 有两大优势,一是公司研发自研架构、自主开发、自有知识产权的GPU,支持GPU全生态、全方位的市场应用,算法和设计的创新保证最优的PPA,同时可以与用户定制优化和共同开发,避免性能低端、生态支持不完善、等嵌入式IP的不利之处;

二是公司创始团队有着做GPU大芯片等经验,GPU大芯片复杂度高、投入大、周期长。砺算创始团队有着经验丰富的GPU,和包含算法和架构、设计和验证、软件和生态、高速系统、后端协同、量产团队在内的完整团队,且公司产品基于自有架构研发,具备做GPU大芯片的优势。

砺算 科技 核心团队有超过20年的GPU研发经验,曾成功研发15颗GPU,宣以方告诉36氪,领导的产品Trio和ViRGE在当时分别占据50%,90%的GPU市场份额。联合创始人宣以方是S3 Stream Processor的研发者,Trio图形芯片的负责人,该芯片每年销售2000万颗,有着21年的作为资深副总裁领导GPU开发的经验。联合创始人孔德海毕业于清华大学,拥有17年GPU研发经验和及4家初创公司经验;联合创始人牛一心是GPU芯片ViRGE(总共销售1亿颗以上)的负责人,S3第一个S3D引擎的研发者,担任20年的GPU芯片设计副总裁。

目前,公司在南京、北京、上海设立了办公室。

这个问题,对许多做AI的人来说,应该很重要。因为,显卡这么贵,都自购,显然不可能。

但是,回答量好少。而且最好的回答,竟然是讲amazonaws的,这对国内用户,有多大意义呢?

我来接地气的回答吧。简单一句话:我们有万能的淘宝啊!

说到GPU租用的选择。阿里、腾讯、华为、滴滴等,大公司云平台,高大上。但是,第一,非常昂贵。很多不提供按小时租用,动不动就是包月。几千大洋撒出去,还是心疼的。第二,遇到codingbug,你找谁去问呢,大厂的售后可不会看代码。第三,看配套。大厂的云服务,适用面广,很难为ai做特殊优化。别看ai炒的热,其实市场还小众的很。

国内外现在有几家专门做算力租赁的,vectorDash,vastai,易学智能,等。

比如,易学智能,国内厂家,GPU便宜、按小时租,并且预装了各种环境-Tensorflow、Pytorch、MXNet、Caffe等都有,还有很多公开数据集可免费用。服务没得说,技术小哥连bug都帮你找,我当时用着,真是上帝感觉。vectordash与vast,出身名门(斯坦福硅谷)。他们的价格,比大厂都要优惠很多。

最后,重复一遍结论:到淘宝,搜gpu租用,跟店家交流一下、再试用1-2小时,你就知道,好东西在哪里了。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13015673.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存