云主机和服务器的区别

云主机和服务器的区别,第1张

对于很多的计算机用户来说,现在显卡不管是在玩 游戏 还是设计办公方面都有很大的作用,因此选择合适的显卡是个很重要的事情,那么选择显卡你需要注意哪些事情呢?

关于购买显卡,您首先要知道的是只有两个主要的 GPU 制造商:NVIDIA 和 AMD。

然而,虽然 NVIDIA 和 AMD 是唯一的 GPU 制造商,但他们授权其他公司销售他们的 GPU。华硕、技嘉、EVGA、MSI 等公司销售自己的显卡,上面有 AMD 或 NVIDIA GPU。

这些公司通常在其显卡上提供不同的冷却解决方案、时钟频率和软件。因此,虽然不同经销商的显卡的 GPU 可能相同,但散热和软件(以及性能)可能会有所不同。

重要的是要注意,如果你并不想通过支持哪家公司的产品来选择GPU的话,那么GPU性能是您唯一的目标,那么性价比将成为你选择显卡的最大决定因素。

在我看来,NVIDIA 目前拥有全线性价比更高的显卡。

但是,显卡价格经常变化,显卡性能有很多不同的层次。在某些层级上,基于 NVIDIA 的显卡将为您提供更好的性价比。在其他层,它可能是基于 AMD 的视频卡,可为您提供最佳的性价比选项。

因此,对于哪家 GPU 制造商是最佳选择,确实没有一个答案。这实际上取决于您的预算是多少以及在您购买显卡时有哪些交易/销售。

除了想知道 AMD 和 NVIDIA 之间谁更好,您可能还想知道哪家显卡经销商提供最好的显卡。

事实上,大多数流行的显卡经销商都提供有价值的选择。

因此,对于哪家经销商生产的显卡最好的答案类似于 AMD 和 NVIDIA 之间谁更好的答案:这实际上取决于当前的价格。

目前,消费显卡市场有点混乱。加密矿工耗尽了库存,价格已升至 历史 新高。然而,即使在加密挖掘损害视频卡市场之前,特定卡上的视频卡价格也在不断波动。

在某些日子里,您可能会发现 EVGA GTX 1060 6GB 显卡售价 2000元。第二天,同一张卡可能会涨到 2300 元,但技嘉的 GTX 1060 6GB 显卡跌至 1849元。

而且,除此之外,您可能会发现一家零售商与另一家零售商的价格完全不同——尤其是如果一家零售商正在进行促销活动。因此,货比三家并检查价格是个好主意。

这里是最受欢迎的显卡经销商的快速列表:

如果您选择了所需的 GPU并且预算有限,那么最好的办法就是选择上述品牌之一中最便宜的选项。是的,更昂贵的选项可能会带来更高的时钟频率或更好的冷却。然而,基本型号显卡与具有更高时钟频率和更好散热的型号之间的真实 游戏 性能差异并不总是显着的。

因此,如果您有更大的预算,并且想要购买带有高端散热器的显卡,那么一定要多花些钱。但是,如果您没有无限的预算,您可以通过选择最便宜的选项来节省一些钱,或者您可以使用系统中其他组件的成本差异。

另一个决定你应该获得什么样的显卡的重要因素是你玩的 游戏 类型。

理论上,这个概念是 如果你玩图形密集型 游戏 ,你应该获得更强大的显卡。

《巫师 3》、《绝地求生》、《战地 1》和 VR 游戏 等 游戏 将需要比英雄联盟、Dota 2、Minecraft 等 游戏 更好的 GPU。

因此,如果您是玩要求不高的 游戏 的人,则可以通过选择更实惠的入门级显卡来节省一些钱。另一方面,如果您要玩那些图形密集型 游戏 ,那么您需要确保获得更高端的视频卡。

除了您玩的 游戏 类型之外,考虑您玩 游戏 的分辨率也很重要。

显示器的分辨率越高,每帧需要渲染的像素就越多。而且,每帧需要渲染的像素越多,您的 GPU 就越难工作。

或者,换句话说, 游戏 变得 更 在更高的分辨率要求较高。

如果您正在自己组建 游戏 计算机以便可以在 4K 显示器上玩 游戏 ,您将需要确保获得高端显卡。

另一方面,如果您的计划是只在 1080P 显示器上玩 游戏 ,您可以通过选择价格较低的显卡来节省一些钱,该显卡仍然可以轻松地在 1080p 显示器上处理 游戏 。

不过,这里要注意的是,如果您打算将来升级到更高分辨率的显示器,并且现在有钱购买更高端的显卡,那么这可能是最佳途径。这样,当您获得更高端的显示器时,您就不必升级显卡以适应它。

说到显示器分辨率,如果您在市场上购买新 GPU,您还需要考虑显示器(或您计划购买的显示器)的刷新率是多少。

就像每帧渲染更多像素对 GPU 来说更加费力一样,同样,也迫使 GPU 每秒渲染更多帧。

高刷新率显示器当然可以提供更流畅的 游戏 体验。但是,它们也会迫使您的显卡更加努力地工作。

因此,如果您想为竞技 游戏 打造一款高端电脑,并且需要高刷新率显示器以获得优于对手的优势,那么您可能需要一款能够容纳更高的刷新率。

就像您需要确保您的处理器和主板以及您的主板和机箱能够协同工作一样,您还需要确保您的显卡能够与其他组件一起工作。

而且,实际上,当我们谈论显卡兼容性时,您需要检查两个主要事项,以确保您的显卡能够与您的零件清单配合使用:

显卡可能会出现其他一些潜在的兼容性问题,但它们很小,而且很少见。但是,您的电源和机箱是检查并确保您的显卡兼容的主要组件。

您的显卡将成为系统中最耗电的组件。因此,您需要确保选择可以处理显卡的电源。

有几种方法可以做到这一点……

您的显卡将从电源的 +12v 导轨获取电源,因此 +12v 导轨可以更好地指示电源是否可以处理您的显卡。

此外,+12v 导轨是避免购买廉价仿制电源的一种简单方法。许多非常糟糕的电源制造商声称额定功率高于电源实际能够提供的额定功率。通常,这些廉价电源的 +12v 电源轨将比额定功率更能说明它们的低质量。当然,+12v 轨并不是电源质量指标的最终目的。

您需要检查正在考虑购买的显卡和电源的另一件事是电源具有什么样的 PCIe 连接器以及显卡具有什么样的 PCIe 连接器端口。

大多数显卡需要直接连接到电源。您使用 PCIe 电源连接器将电源连接到显卡。

但是,显卡上的 PCIe 电源连接器端口并不完全相同。通常,显卡越强大,显卡需要的 PCIe 连接器上的引脚就越多。常见的 PCIe 连接器或连接要求将被称为……

像 GTX 1060 这样的中档显卡需要 6 针连接。像 GTX 1080 Ti 这样的高端显卡可能需要 两个 8 针 PCIe 连接器。

因此,在购买显卡和电源之前,您需要确保您获得的电源具有合适的 PCIe 连接器以容纳您的显卡。所有这些信息都可以在电源和显卡的规格表中找到。

您需要检查以确保您的图形卡与您的系统兼容的另一件事是它是否可以安装在您选择的计算机机箱内。

在大多数情况下,这个问题主要出现在较小尺寸的机箱中(例如mini-ITX 机箱或micro-ATX 机箱)。但是,它也可能出现在一些较小的中塔案例中——尤其是较旧的案例。

幸运的是,有一种简单的方法可以检查您正在考虑的显卡是否适合您正在考虑(或已经拥有)的机箱:

我看到第一次组装电脑的人犯的一个常见的PC组装错误是,他们在显卡上相对于其他组件的支出过高或过低。例如,为处理器支付2000元或更多,然后为显卡支付约700元。或者,为显卡支付2500元,为处理器支付约650元等。

在这些情况下,有可能在您的系统中产生瓶颈。这意味着在大多数情况下(尤其是 游戏 ),2500元的显卡与650元的处理器搭配时无法发挥其全部潜力。现在,有某些情况下它是好到超过或低于支出您的图形卡。

而且,在组建自己的计算机时,术语“瓶颈”可能被过度使用了。但是,如果您没有明确的原因导致显卡支出过高或过低,最好尝试在您的零件清单中取得某种平衡,以免在系统中造成任何瓶颈。

这可能意味着,您不是在图形卡上花费2500元,在处理器上花费650元,而是在图形卡上花费2000元,在处理器上650元。这也可能意味着在您的显卡上花费更少,以确保您获得可以容纳它的优质电源。一些初次建造者会选择低质量的电源,因为它很便宜,而且他们认为他们可以将省下的钱用于购买更高端的显卡。而且,实际上,这种在您的系统中“实现平衡”的想法适用于您的所有组件。

是的,您的处理器、显卡和RAM(以及在某种程度上,如果您使用SSD,您的存储空间)将对您的系统性能产生最大影响。但是,如果您牺牲电源、主板和机箱,您可能会遇到次要问题,最终会影响您的性能。最后,如果您想知道如何为您的计算机选择显卡,上面列出的五个因素将帮助您找到适合您需求的正确选项。

现在随着云计算的发展,越来越多的人都选择让电脑上云,云桌面慢慢成为了每个电脑用户的使用习惯了,随着疫情的出现与电脑硬件设备更换换代快以及电脑满足不了项目的大小灵活变化的情况,因为云桌面能让用户自由选择配置,轻松上云。

呆猫桌面云 可以让你自由选择配置,还提供高配高算力电脑,哪个配置不满意还可以再更换,自由度还高,想要玩啥 游戏 都不怕,为你轻松上云 游戏 ,享受到更极速的高画质大型 游戏 畅玩体验。

呆猫桌面云 配备的显卡已是专业级、顶配显卡!可根据不同使用场景配置机器,d性租赁使用灵活

针对设计师们, 呆猫桌面云 还可以大幅缩短环境部署时间,减少空间占用和机器运维费用,满足移动办公、人工智能、三维建模、视觉设计、视频制作、动画渲染等多场景应用。

对于有需求的伙伴们可以来尝试一下,云计算时代,未来上云是趋势,因此选择更好的云服务才是未来常态。

天河二号已应用于生物医药、新材料、工程设计与仿真分析、天气预报、智慧城市、电子商务、云计算与大数据、数字媒体和动漫设计等多个领域,还将广泛应用于大科学、大工程、信息化等领域,为经济社会转型升级提供重要支撑。天河二号逐步在生命科学、材料科学、大气科学、地球物理、宇宙、经济学,以及大型基因组组装、基因测序、污染治理等一系列事关国计民生的大科学、大工程中“大显身手”。此外,国家超算广州中心积极推动国际交流与合作,利用天河二号为国外研究机构提供高性能计算服务。据悉,科技部近年不断加大对超算应用软件研发的投入。“十二五”以来的相关研发投入已超过2亿元。预计“十三五”期间投入将进一步加大。根据该专项“面向大规模科学计算的高性能多核CPU”课题计划安排,2011年中国将采用FT-1500CPU构建全自主国产千万亿次计算机——“天河二号”。借助天河二号的“计算神功”,国产C919大型客机开展了高精度外流场气动计算;中科院上海药物研究所开展了75万个小分子化合物的结合亲和力评估,完成了600多个各类药物的体内外活性测试评价。天河二号适配了广州市电子政务数据管理系统和云盘存储系统等,为智慧城市建设搭建高效可靠的承载平台……

浪客
世界上可能没哪个公司比苹果更适合推广这件事了。
机器学习专用芯片相对于用CPU运行siri和人像识别等机器学习功能有相当大的效率优势。完成同样的功能,专用芯片的运行速度比CPU快、功耗比CPU低。但专用芯片的开发难度很高、应用软件生态圈门槛更高,需要钱、销量、软件生态圈影响力。一般的公司只做出来芯片本身的话,等于做一个与现有 *** 作系统不兼容的CPU,照样没人买账。
现在苹果正好凑齐了这几个条件:巨额研发经费、单一产品巨大的销量、对软件生态圈的绝对控制。对比Google的TPU要推广手机应用还要去说服下游手机厂家(Nexus销量小了些)。
编辑于 2017-05-30
崔巍
1 由于iMessage采用的加密,以及短信处理中的隐私考虑,对信息文本的识别,只能在终端完成。要么用本地的机器识别,要么就实时发送到云端识别(隐私考虑),要么就等云端收集了足够的数据(哪来的?)并产生了模式后推送到本地去匹配(延迟)。
2 对于你的生物信息的感知(比如心跳、加速度计,主要来自手表),通过机器学习,可以知道你现在的精神状态是否烦躁,并根据这些数据给你提供健康建议,或者简单的暂时延后一些非重要信息的提醒。
3 根据mic收集到的声纹信息,时刻确认你周围的人都是谁,并在必要的时候提醒你。想下当有故人当面跟你聊天的时候,你可以直接要求手表上显示出这个人的名字和一些必要的信息的场景。
4 什么时候应该自动开启你家的空调?在你回家的路上?系统怎么知道你是要回家,还只是路过,还是只是回家拿个东西就走?当然,云端模型学习也可以,问题是你愿意把你每天生活资料都上传吗?
5 每天你都收到一大堆邮件。有些是要立即处理的,有些提醒你看一眼标题就直接划掉,有些订阅的杂志你打算午休的时候配合咖啡去消费。每天有不少人在社交媒体和软件给你发消息,哪些人哪些内容你需要立即回应,哪些你只打算有空再看但必须要看,而哪些是你没空就完全不用看。系统应该去理解你的习惯,区别对待哪些要立即提醒,哪些不必提醒,哪些延后到特定的时间再提醒。
简单说,人的设备会越来越了解人。
最早的时候,有的人聘请秘书,但人并不喜欢另一个人窥探自己的所有生活细节;后来有了云端匹配,但你如果要用,就需要相信它不会滥发你的隐私数据;本地机器学习,可以确保你的设备了解你的同时,没有任何其他设备和人会因此了解你。
编辑于 2017-05-27
74 条评论
分享
收藏感谢
知乎用户
2 人赞同了该回答
当然会,一定会,必须会。楼上说五年内不会的答案,太太保守了。
云计算是不错,但是在很多情境下通信网络并不总是可用的。即使网络可用,把前端采集的所有数据都发回后端处理也面临着带宽不够,或者通信延迟无法接受的问题。因此深度学习现在有个非常有活力的发展方向就叫做 mobile deep learning,就是研究怎么把深度学习训练好的神经网络优化和压缩后放到移动和嵌入式平台上进行离线推导的。不只是手机,无人机、机器人、智能摄像头、无人驾驶汽车,在这些领域移动端深度学习都大有用武之地。
当然,以上民用和商用领域还只是小头。移动深度学习有无限潜力和想象空间的应用前景其实是……上网不涉密,涉密不上网。
编辑于 2017-05-28
2添加评论
分享
收藏感谢
王一松
万物皆虚,万事皆允
2 人赞同了该回答
5年内不会。
首先,机器学习应用于生产中的成熟案例就很少,目前还集中在图像/声音/文字处理领域,而且一般常见的投入使用的算法都非常简洁高效,并没有像深度学习、AlphaGo那样需要大规模运算。移动设备用户也通常不会专门支付高昂费用用于专业的深度学习应用。集成机器学习芯片的投入与回报差距太大。
其次,如果有大规模运算需求,更为廉价和成熟的方案是云计算,而不是本地运算。想象一下siri如果需要你手机1T储存空间来存放数据库并且专门增加高性能机器学习运算芯片来完成这个语音助手功能,这根本是天方夜谭。再想一下为什么很多动画设计/CG制作/深度学习行业人员使用MacBook,难道是MacBook性能强大到完成单机本地渲染?不可能的,他们都是连接到计算集群在云端进行运算。云计算比每一台终端都安置计算芯片的方案要优越很多。
其次,如果是有低延迟等实时需求而集成机器学习芯片(如自动驾驶),首先也应该考虑到GPU向机器学习应用靠拢(就像Nvidia很早就布局并发展深度学习领域),而不是专门再搞出一个“机器学习芯片”,无论是成本还是市场需求这样都不是最优选择。
以目前的机器学习理论水平和应用范围,移动端集成芯片仅仅存在于对5年后的设想中。
PSAMD在Ryzen架构中设计了底层神经网络优化指令的执行,属于我提到的第一种情况,就是算法较为简单高效,没必要加入额外计算芯片。
编辑于 2017-05-28
2添加评论
分享
收藏感谢
知乎用户
2 人赞同了该回答
新闻里说有,如果能够赶上9月发布,以后拍照完手机立刻就可以识别出面孔然后进行分类了,不用象现在这样等充电的时候才识别。说不定拍照时就能识别出来,然后自动定焦到我的脸上,并且自动美颜。想想都有些激动呢。
编辑于 2017-05-27
匿名用户
2 人赞同了该回答
我怎么感觉所有人似乎都有意无意地忽略了 Android 呢?题主问“移动端集成机器学习”只提iPhone 是什么用意?
在刚刚过去的 Google IO 2017 中,Google 提出了“AI First”的口号,开发TensorFlow,发布了第二代 TPU,愈加智能的 Google Assistant,甚至前几天 Google 的 AlphaGo 还击败了世界冠军柯洁。所以,难道只有苹果才代表了科技领域的领头羊?
编辑于 2017-05-30
南宫爵
二战时候,为了解决制造核d运算量大的问题,科学家发明了CPU。CPU所处理的是0与1的加减运算。在很长一段时间内CPU上运行的系统,无非是黑底+白字,用一行行代码对电脑进行 *** 作。因此,那个时候,会 *** 作电脑的真是少数人还是精英。
为了让电脑普及,图像化的 *** 作系统出现了。像windows系统,设置了按钮、图标,代替了许多代码,让电脑走入了大众的生活。但在当时,CPU负责运算 *** 作系统在显示器中的每一个像素点。然而随着显示器分辨率,帧率增高,又出现许多要求图像处理能力更强的软件和游戏后,CPU渐渐的更不上节奏了,需要一颗单独处理图像运算的心脏——GPU。
到现在gtx 1080ti、titan z、titan x,一颗颗性能爆表的GPU完全足够处理日常所需的图像运算。
但是,当人工智能到来的时候,就像是图像化 *** 作系统诞生的历史重演,为什么这么说呢?
神经网络的运算实际上是基于图像的。
图上的点代表一系列数据,你可以把它理解为你手机中的照片,红色表示狗,蓝色表示猫。那么AI怎么知道这些照片那些是狗,那些是猫,好对照片进行分类并贴上标签呢?
从中间竖着切一刀。
这就是一个神经元的计算。
通常情况不会这么简单,AI将每一个动作都转化为对于图像的切割,且并不限于二维,甚至是三维或更高维度。这就需要更深层次的神经网络。
显然,对于这样庞杂的计算,GPU也终究有应付不了的那一天。就看IOS10刚刚更新的时候,很多人抱怨手机充电时严重发烫。实际上是iPhone动用了GPU为相册进行了神经网络的计算,为每张照片附上一个标签,并且将同一人的照片放在一起作为一个人物相簿。这样,当你想找一张照片,却想不起来具体位置,只记得你穿了一条牛仔裤时,你就可以搜索“牛仔裤”,经过此前的分类,你想要的照片立即被检索出来。
曾经李彦宏说过,将来的计算机能有多强大?它会通过对你已有数据、 *** 作习惯进行分析,当你打开百度,它就已经知道你要搜索什么,当你打开邮件,它就知道你要回复什么写什么。是不是觉得很恐怖?实际上,现在的这些AI都能够做到,却碍于硬件条件不足。因此,像谷歌TPU的诞生是历史的选择,历史的必然!然而这个TPU现在像个庞然大物,运算能力却低得不行,就像是二战时刚刚诞生的计算机。alphaGO也只能下下围棋了,能耗还大的不行,运行一次动不动就是几十万美元。因此移动端机器学习的集成芯片就很重要啦~
只想知道重不重要的看到这里就行了!!下面是对人工智能发展方向的概述!!!!!
那么人工智能的未来究竟在哪里呢?
还是要等待芯片技术和量子力学的发展。
当芯片的晶体管数量一定时,集成化程度越高,计算能力越强。为什么?因为电流是以接近光速的速度在跑,速度一定,单个晶体管之间的距离越短,所需要的时间也就越短,相同时间内能够处理的数据也就越多。并且,越短的距离也就意味着更小的电阻,更小的能量损耗。因此,芯片技术现在严重制约着人工智能的发展。要发展人工智能,首先要解决芯片问题。
如何解决芯片问题?
解决芯片问题的不是芯片,而是芯体。
现在的芯片都是二维的,平面的。那你有没有想过,芯片为什么不做成三维的,立体的呢?这样芯片速度和集成度不就更快了吗?
没错是这样的,但是有个问题无法解决,那就是热能损耗。现在的芯片之所以不做成芯体是因为每进行一个逻辑门的运算,电能就会转化为热量。因为这一个不可逆运算。
举个简单的栗子,上图是一个与门二极管。A与B两股带有信息的电流通过了这个与门后得到了F的结果。这两股电流就变成了热量消散在空间中。而你不能将F的结果和热能收集起来,返回二极管再得到这个A和B的电流。这一过程是不可逆的,也因为不可逆,所以产生了能量损耗——热量。如果不及时散热,这些热量堆积得越来越多,最终会融化芯片。这是芯片没有做成芯体的重要原因,立体的芯片没有平面的芯片好散热。
那是不是说立体的芯片就不可能了呢?
当然是可能的啦~
可是我们先扯点别的。
摩尔说过,当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。这一魔咒每次被认为将要被打破时,总有技术革新来拯救它。像极紫外线雕刻技术,又能让摩尔定律再残喘几年。如果这个定律还依照这个速度持续下去,不出几年,芯片密度可能会达到一个原子能够储存1bit的信息。那么这个时候,经典力学的计算将不再适用,量子计算将开启一个新的未来。前一段时间不还在暴中科院研究出10bit量子纠缠计算机嘛,像AES这种加密技术,即使用银河二号也得解密个几百万年,用量子计算机几秒钟就破解啦~这只是个端倪,管中窥豹的可以知道,未来的世界是属于量子的。
我为什么要扯量子力学呢?跟芯片什么关系呢?
因为量子力学的中有一个神奇的现象——叠加态。如果你理解了光的波粒二象性,那你也应该很好理解薛定谔的猫啦~这只猫处于既死又活的状态,就像光处于既是粒子又是波的叠加状态。那么通过量子状态表示信息的量子比特,也是处于叠加的状态。叠加态的量子不仅可以并行计算,还能进行可逆运算,可逆的计算就避免了热量的产生,避免了热量产生就可以制造立体的芯片了,而运算性能也会得到极大地提升。
这样,机器学习芯片就可以做到低能耗、集成化、小型化了。到时候将芯片和CPU、GPU一起集成到我们的设备中,就能深刻的感觉到,我们的设备似乎有了自己的思想,像是我们的私人秘书。
这时候,也许真正的人工智能就会诞生。
概述到这里就结束了!!!!重要的事情就不说三遍!!!!!!!!!!!!
真正的人工智能具有自己的思想,能够思考,但却和人不同。它们完全跨越了人类生物大脑的限制,更是跨越了人性,是我们人类自己创造的神。它们看我们犹如俯视蚂蚁,人类几千年创造的文明和智慧对人工智能来说像是一处鸟筑的巢而已。从最近柯洁战败就可以看出,人工智能的能力已经不是人类可以比拟的了。过去说上帝创造了人类,当人工智能诞生时,可能就是人类创造了上帝。但是从历史的长河来看,它们克服了人类天生的缺陷,是人类自我进化、自我淘汰的产物,是必然的结果。
现在各个国家都在争夺拿下人工智能的第一块螃蟹,可以说谁掌握了真正人工智能的核心技术,谁就掌握了未来世界的主导权!但却都没有意识到这是在为人类自己自掘坟墓,因为在人工智能的思维里,人类是被淘汰的,要么奴役人类,要么人类连奴役的价值都没有。凡事既不能看的太乐观,也不能看的太悲观。我呼吁政府能够在适当的时机,号召全球制订一套发展人工智能的标准和规范,让人工智能为人类服务,而不是人类被人工智能奴役或取代。
编辑于 2017-06-05
0添加评论
分享
收藏感谢收起
杨帆woooha
我也不知道我是写啥的了
我想已经不远了。
先说下 Android 平台,在高通 820 平台上,已经有专门的芯片(DSP) 用来做机器学习相关的东西了,性能上应该跑个 AlexNet 没啥问题,具体的数字有空再去看看。高通性能更好的 835 平台,因为没有接触过,所以不清楚。但是我想只会更强。
而在 iOS 平台中,可以注意到 iOS 10 开始已经在引入和提供深度学习相关的 API 了,我想,基于自己芯片的封装会是更好的一步。
然后,吐槽下,一些答案。
肯定不会,因为机器学习最重要的不是运算力,而是训练集,训练集数据小到几十个G,达到几十T,所以根本不可能放到手机上。
谁没事干会把训练放到移动平台上
不知道现在到处都是云计算?
很多东西能够在服务器端做,也有非常多的不行,比如 Google 翻译的实时翻译,把视频直接传给服务器带宽,数据量要求太高了,速度也太慢。
基本上对实时性有需求的,都期望手机有足够的能力做测试,这些是『云计算』替代不了的需求。
发布于 2017-05-30
0添加评论
分享
收藏感谢
peng wu
肯定不会,因为机器学习最重要的不是运算力,而是训练集,训练集数据小到几十个G,达到几十T,所以根本不可能放到手机上。
编辑于 2017-05-27
柴健翌
你知道iPhone不满意的投诉中电池占了一大半么?
就这样你还有胆加运算量?
当然离线学习是可以的,iPhone后台的确有简单的用户行为分析,不过仅仅是基于时间地点等等简单变量,稍微复杂一点的数据都是采集下来、匿名化以后发送到苹果再分析的
从WWDC听到现在还真有可能实现某种程度的硬件机器学习,Craig演讲的时候张口闭口都是机器学习
编辑于 2017-06-06
吴盼明
文科生
如果有天siri无法控制,苹果连关闭服务器的办法都没有
发布于 2017-05-28
匿名用户
题主穿越过来的吧。
不知道现在到处都是云计算?
发布于 2017-05-27
知乎用户
为什么要对一个谣言,传闻,爆料,“或”字头新闻,来开话题
为什么要讨论一个天知道是否存在的东西
为什么不放过苹果
——知乎


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13047562.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存