现在不光在线服务吃机器,背后跑各种大数据查询的,人工智能算法的,你给他们多少他们就能用多少。巨头的服务器数量是几十万甚至百万量级的。比如说,好几年前Google的服务器数量是两百五十万台。
这是Facebook其中一个数据中心,一眼望不到头。
再来一张aws和azure数据中心的天下布武,只有非洲还是处女地。每个数据中心一般有几千到几万甚至十几万服务器不等。当然,这些服务器他们也不是都自己用。
下图是来自公开资料中Twitter各种服务器的比例,我没有泄露公司的机密。可以看到数据以及消息的存储和处理占了很高的比例。
有朋友说水平高的程序员可以用很少的机器跑很高的并发,这诚然是一种水平,不过让非常多的机器一起跑还能做的结果准确和很高的稳定性,这也是一种水平。哪种水平更高,就仁者见仁,智者见智了。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)