大数据是我们每天畅游的信息海洋-来自我们的计算机,移动设备和机器传感器的海量数据。 组织使用此数据来驱动决策,改进流程和策略以及创建以客户为中心的产品,服务和体验。 大数据之所以被定义为“大数据”,不仅是因为其数量庞大,还因为其性质的多样性和复杂性。 通常,它超出了传统数据库捕获,管理和处理它的能力。 而且,大数据可以来自我们能够进行数字监控的任何地方或世界上任何地方。 气象卫星,物联网(IoT)设备,交通摄像头,社交媒体趋势–这些只是正在挖掘和分析的少数数据源,以使业务更具d性和竞争力。
早在2018年,微软就将整个数据中心沉没在苏格兰海底,使864台服务器和276 PB的存储设备坠入了117英尺深的海洋。今天,该公司报告说其最新实验是成功的,揭示了发现,这些发现表明水下数据中心的想法实际上是一个很好的想法。
从表面上看,将整个数据中心扔到海底似乎很奇怪,但是微软的Project Natick团队假设放置将导致更可靠,更节能的数据中心。
微软正在试验水下数据中心,在陆地上,数据中心会遇到诸如氧气和湿气腐蚀以及控制温度变化等问题。但是在严格控制温度的水密环境中,几乎没有问题出现。想法是,可以轻松地将这些类型的服务器部署在需要它们的区域附近的大小区域中,从而可以在更多地方更好地本地访问基于云的资源。好处很大。微软表示,水下数据中心的故障率仅为陆地数据中心的八分之一,这是一个巨大的进步。较低的故障率非常重要,因为将破损的服务器放在海底的密闭容器中维修起来要困难得多。
该公司已经探索水下服务器的想法已有一段时间了;早在2015年,它就在加州沿海的一个数据中心内灌了几个月的水,作为概念验证,以查看这些计算机是否能在旅途中幸存下来。但是,此轮试验要花费更长的时间,目的是证明该公司可以在实际规模上完成该任务,并可以为实际使用而制造和生产。
是因为微软公司为了减少散热成本。大家都知道,数据中心的运转会散发大量热量,若不及时散热就就极其可能烧毁服务器。但是增加散热设备又会加大电力使用,从而增加成本,于是微软的工程师们想出了一些“奇特”的方法——将数据中心存放于水下。数据中心散热量很大,尤其是数据高峰时,会加大服务器的运行压力,同时也会加速工作,产生热量也较多,如果不能及时降温,就会有烧坏的风险。
数据中心一旦坏掉,其损失难以估量,于是人们想出很多方法为其降温,据统计数据显示,一个数据中心的成本中,电力成本就占了20%左右,而电力成本中的42%又会用来散热。因此,微软公司为了减少散热成本,便将自己的数据中心建在水底。如此以来,便节约了一部分的电力成本,也不用担心数据中心因为运转太快而出现散热不及时的情况。
另一方面,微软公司的这一行为,也符合当今的环保理念。通过利用水的自然冷却,减少对电力的依赖,也便是减少了化石能源对环境增加的负荷,毕竟现在大多数的电力供应还是以化石能源的火电为主。
微软公司表示,今后会将更多的数据中心建设在水下,并广泛进行落实。不得不说,微软真是一个非常有想法的科技创新型公司!微软能有今天的成就,离不开每一位研发人员和工作人员的辛勤付出。不过想到以后的海洋中,不仅有海底隧道,海底电缆、还会有数据中心,是不是会感觉很神奇。
因为把服务器放到海里能实现自然降温,冷却服务器,不会让服务器过热,产生爆炸等危险。
要知道,腾讯支持着全国各种业务、软件的使用,所需要用到的服务器可想而知有多少,为了使这么多服务器可以尽量节约成本的情况下冷却,放在海里是最好的选择。
2014年微软开始着手将服务器放置于水下的计划,同年开始在海里做投放实验,他们将300台电脑的服务器,放置进一个重约十七吨的密封舱内,该密封舱是全钢制的。而且密封舱内同时还装载着100多个传感器。岸上的工作人员随时可以通过这些传感器感知到水压和温度,便于及时发现并处理特殊情况。
一切就绪后微软的团队将这个密封舱投入加州海岸的近海区。第一次试验结束后,为证明海底数据中心是可行的。2019年微软又进行了第二次海底数据试验,这次的实验规模更大,装载的电脑服务器更多,一共有864台电脑服务器,相比较第一次的钢制密封罐。
这次试用的密封设备更像一艘小型潜艇,它的长度超过十米。而这次的实验周期为期五年。同样将服务器放在水里的还有阿里巴巴,阿里将自家服务器藏在了千岛湖里面,去过旅游的游客应该有听导游介绍过吧。服务器在运行过程中会散发大量热气,此时必须做好散热,不然可能会有烧坏的风险。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)