伴随服务器概念的诞生,小组服务器就是其中重要的一支发展力量,无论是在486处理器刚刚诞生的年月,还是今天P4 CPU流行的日子,小组服务器(单路服务器)凭借出色的性能价格比,牢牢占据了低端服务器市场。它的使命也从最初NetWare系统下纯粹的文件共享服务上升到复杂服务供应体,文件、打印、邮件、代理、数据库等中小企业用户可能用的都成为小组服务器提供的项目。
I/O进步
文件服务器是最经典的服务器之一,经历了历史的发展,它并没有被所谓的FTP、数据库等服务器所代替,反而借助 *** 作系统的支持,焕发了新的魅力。在NetWare年代,一台486处理器的服务器,配备一块10M网卡,就能给超过100个用户提供出色的文件服务性能,可是在Windows年代,动辄数百兆的数据已经将100M网络的小组文件服务器逼上“梁山”,虽然处理器的频率成百倍的提升,可千兆网络环境却成为小组服务器永远的痛。
因为在小组服务器的发展史上,一直出于降低价格的目的进行研发,那些“真正”拥有服务器完善 I/O系统的芯片组,产品高高在上的价格限制了他们“小组化”的步伐;基于台式机系统进行开发的小组服务器先天不足,根本无法提供完善的I/O系统。千兆网络、高性能存储只能是一个美丽的肥皂泡。好在Intel迅速认识到这一点,借助新一代处理器的推出,将i875P芯片组推上了小组服务器/工作站的位置,它凭借独立CSA通道和Serial ATA RAID系统,终于克服了小组服务器徘徊已久的障碍,I/O系统中的关键环节——千兆网络环境和高性能存储。
解决了小组服务器存储和传输通道上的障碍,新一代的小组服务器在文件、打印等服务中已经比上一代的小组服务器有了质的进步。
计算能力的进步
虽然邮件、数据库等应用是近年来才逐渐在小组服务器上得到应用,但是发展势头之猛烈,是当初小组服务器诞生之初无法想象的。他们有效地利用了小组服务器日渐高涨的产品性能,充分发掘了应用的本质。
我们都知道,影响服务器整体处理能力的原因是多方面的,一味提升处理器的主频并不能给用户带来最终性能提升的感觉,特别是针对那些并发进程多,单一进程尺寸小,但是需要服务器根据进程的需求运行查询、排序、记录、反馈等多种任务。其实从这一系列的动作里,我们看到了数据提交到网卡→内存→处理器→硬盘→处理器→内存→网卡的全部过程,这是服务器典型的工作状态,是我们经常谈到的服务器I/O体系。这时无论在哪一个环节出现了瓶颈效应,都会严重拖慢进程的脚步,早期的小组服务器和中高端服务器最大的差异也就在此。
而新的一代小组服务器已经向中高端服务器提出了挑战,从表中我们可以看出昨天的小组服务器、今天的小组服务器、今天的部门级服务器各个环节的差异。
从表中可以清楚地看到,新一代的P4服务器已经全面超越了早期的小组服务器,甚至在某些方面对部门级服务器也提出了强有力的挑战,在I/O性能上,我们已经看到了小组服务器高性能的身影。
殊路同归的管理
在中高端服务器领域,管理是一条必不可少的项目,无论是基于硬件体系的管理维护性设置,还是在网络上对服务器进行全面的监控,它已成为体现服务器水准的一个标志。可惜的是,因为不同厂商都是依照自身多年的发展,监控体系各自为政,而且多数是专有系统,自然成本高居不下。在价格拼刺刀的小组服务器中使用完善的监控管理技术似乎成为了一种奢望,这点在早期的产品中尤为明显。
但是在小组服务器中,因为Intel的大力支持和发展,几乎所有的主板厂商都开始采用Intel Heccta management controller技术,配合Intel网卡,可以对小组服务器也实现基本的监控功能。
低端技术的蔓延
高端服务器技术下嫁小组服务器还能让人理解,可是低端技术上攀的方式,恐怕也只有这个创新的年代才会出现。在存储领域,超过40根信号线的排线一直都是必不可少的,因为IDE硬盘需要40/80针的数据线,SCSI更需要68针的混编线才能提供超过SCSI 320的速率,这些宽宽的排线在服务器机箱里盘根错节,既不美观,也严重阻碍了散热。甚至在厂商那里,如何捆扎和布置排线都由服务器研发部门的专门小组来解决。
当Serial ATA来的时候,虽然是取代IDE的技术,但是它带来的串行化趋势却在中低端服务器领域引起了轩然大波,连接4块Serial ATA硬盘竟然只有细细的几根电缆,而且允许的长度也超过了40/80针的排线,因此在小组服务器里,我们也看到了整齐、漂亮的布线。而且Serial ATA硬盘背板技术得到了改进,可以配合独立背板技术实现热交换,热插拔SCSI的地位受到了冲击。
当Intel在推出ICH5南桥的时候,具有一个ICH5R版本,提供了SATA RAID on Chip技术,虽然不能说是完全的创新,毕竟SCSI RAID on Chip技术在前,可是廉价的成本为小组服务器提供RAID 0、1、0+1,在之前只能通过IDE RAID卡实现,而Serial ATA的扩展能力也非IDE可比,因此在全面占领小组服务器的基础上,一定能向上蔓延到部门级服务器中。
2003年9月,记录着小组服务器在《计算机世界》评测实验室的一次盛会,8位来自不同厂商的“选手”,给我们带来新一代小组服务器全面的精彩
1998年,国人第一次在本土市场上接触到Linux,给我们创造这个机会的是TurboLinux。通过与国内大型IT媒体的密切合作,TurboLinux将自由软件和Linux的概念借助报刊附送光盘的形式广为传播,并率先建立起国内Linux认证体系,无论在市场造势和商业策略的制订上都取得了领先的成功。
1999年起,以蓝点(BluePoint)和冲浪(XteamLinux)为代表的本土产品异军突起,使中文Linux真正变成中国人的事业。
接着,以红旗Linux为代表的“国家队”正式介入中文Linux领域。红旗软件汇集中国科学院20多年在开放系统上的研究成果,以及10多年来中文系统的开发经验,率先推出的红旗Linux服务器,扬起国产软件的一面旗帜,在业界引起强烈反响。
最后杀出的一匹黑马,是以联想为代表的IT传统实力派,坐拥庞大的PC销量带来的OEM预装市场,联想推出了幸福Linux,对其他Linux厂商造成了强大的冲击和市场压力。
中文Linux的进程简单明了,而从这一过程中也足以看到,国人对Linux的无限热爱之情。在各大厂商频频活跃于众人眼前的同时,诸位Linux的忠实追随者也纷纷建立了各式各样的Linux论坛,并在其中发表自己的高谈阔论,为中文Linux的发展摇旗呐喊。
应用推广一直以来都是Linux最大的难题,在国内也是如此。不过,经过两年的发展,在嵌入式系统、服务器和桌面应用等应用领域,国产Linux推广应用趋势已经逐渐明朗化。据专家预测,未来几年中,嵌入式Linux系统将在中国市场上有高速增长,工业控制类产品将走在前面,网络设备将紧随其后。
服务器一直以来都是Linux应用值得自豪的一个领域,政府、银行、邮电、保险等关键部门已经开始规模推广。Linux服务器的稳定性、安全性、可靠性已经得到业界认可,一大批中间件、数据库、网络及应用软件纷纷运行在Linux平台上。产业的形成也已日渐清晰,红旗、TurboLinux、中软等公司已经形成开发、服务、市场、销售体系。
Linux桌面系统的僵局一度很难打破,但是厂商们还是在努力地发展和推广桌面Linux,红旗的桌面LinuxOEM协议在上半年就已经突破了100万份,而中软等厂商也都推出了新的桌面版本。尽管我们可能质疑它的实际应用意义,但我们看到,厂商更多的用意是培育市场,争取更大的市场份额。专家的客观分析表明,桌面Linux应用时代的到来还需假以时日。
当前,为推进IT支撑系统集约化建设和运营,进一步发挥集中化能力优势,IT云成为运营商IT支撑系统建设的基础架构。但在IT云资源池部署过程中,服务器技术面临多个新挑战,主要体现在以下3个方面。
在性能方面,人工智能(AI)应用快速扩张,要求IT云采用高性能GPU服务器。AI已在电信业网络覆盖优化、批量投诉定界、异常检测/诊断、业务识别、用户定位等场景规模化应用。AI应用需求的大量出现,要求数据中心部署的服务器具有更好的计算效能、吞吐能力和延迟性能,以传统通用x86服务器为核心的计算平台显得力不从心,GPU服务器因此登上运营商IT建设的历史舞台。
在效率成本方面,IT云部署通用服务器存在弊端,催生定制化整机柜服务器应用需求。在IT云建设过程中,由于业务需求增长快速,IT云资源池扩容压力较大,云资源池中的服务器数量快速递增,上线效率亟需提高。同时,传统通用服务器部署模式周期长、部署密度低的劣势,给数据中心空间、电力、建设成本和高效维护管理都带来了较大的挑战。整机柜服务器成为IT云建设的另一可选方案。
在节能方面,AI等高密度应用场景的快速发展,驱动液冷服务器成为热点。随着AI高密度业务应用的发展,未来数据中心服务器功率将从3kW~5kW向20kW甚至100kW以上规模发展,传统的风冷式服务器制冷系统解决方案已经无法满足制冷需求,液冷服务器成为AI应用场景下的有效解决方案。
GPU服务器技术发展态势及在电信业的应用
GPU服务器技术发展态势
GPU服务器是单指令、多数据处理架构,通过与CPU协同进行工作。从CPU和GPU之间的互联架构进行划分,GPU服务器又可分为基于传统PCIe架构的GPU服务器和基于NVLink架构的GPU服务器两类。GPU服务器具有通用性强、生态系统完善的显著优势,因此牢牢占据了AI基础架构市场的主导地位,国内外主流厂商均推出不同规格的GPU服务器。
GPU服务器在运营商IT云建设中的应用
当前,电信业开始推动GPU服务器在IT云资源池中的应用,省公司现网中已经部署了部分GPU服务器。同时,考虑到GPU成本较高,集团公司层面通过建设统一AI平台,集中化部署一批GPU服务器,形成AI资源优化配置。从技术选型来看,目前运营商IT云资源池采用英伟达、英特尔等厂商相关产品居多。
GPU服务器在IT云应用中取得了良好的效果。在现网部署的GPU服务器中,与训练和推理相关的深度学习应用占主要部分,占比超过70%,支撑的业务包括网络覆盖智能优化、用户智能定位、智能营销、智能稽核等,这些智能应用减少了人工投入成本,提升了工作效率。以智能稽核为例,以往无纸化业务单据的人工稽核平均耗时约48秒/单,而AI稽核平均耗时仅约5秒/单,稽核效率提升达 90%。同时,无纸化业务单据人工稽核成本约15元/单,采用GPU进行AI稽核成本约0048元/单,稽核成本降低达968%。
整机柜服务器发展态势及在电信业的应用
整机柜服务器技术发展态势
整机柜服务器是按照模块化设计思路打造的服务器解决方案,系统架构由机柜、网络、供电、服务器节点、集中散热、集中管理6个子系统组成,是对数据中心服务器设计技术的一次根本性变革。整机柜服务器将供电单元、散热单元池化,通过节约空间来提高部署密度,其部署密度通常可以翻倍。集中供电和散热的设计,使整机柜服务器仅需配置传统机柜式服务器10%的电源数量就可满足供电需要,电源效率可以提升10%以上,且单台服务器的能耗可降低5%。
整机柜服务器在运营商IT云建设中的应用
国内运营商在IT云建设中已经推进了整机柜服务器部署,经过实际应用检验,在如下方面优势明显。
一是工厂预制,交付工时大幅缩短。传统服务器交付效率低,采用整机柜服务器将原来在数据中心现场进行的服务器拆包、上架、布线等工作转移到工厂完成,部署的颗粒度从1台上升到几十台,交付效率大大提升。以一次性交付1500台服务器为例,交付工作量可减少170~210人天,按每天配10人计算,现场交付时间可节省约17~21天。
二是资源池化带来部件数量降低,故障率大幅下降。整机柜服务器通过将供电、制冷等部件资源池化,大幅减少了部件数量,带来故障率的大幅降低。图1比较了32节点整机柜服务器与传统1U、2U服务器机型各自的电源部件数量及在一年内的月度故障率情况。由于32节点整机柜服务器含10个电源部件,而32台1U通用服务器的电源部件为64个,相较而言,整机柜电源部件数减少844%。由于电源部件数量的降低,32节点整机柜服务器相对于32台1U通用服务器的月度故障率也大幅缩减。
三是运维效率提升60%以上。整机柜服务器在工厂预制机柜布线,网络线缆在工厂经过预处理,线缆长度精确匹配,理线简洁,接线方式统一规范,配合运维标签,在运维中可以更方便简洁地对节点实施维护 *** 作,有效降低运维误 *** 作,提升运维效率60%以上,并大幅减少发生故障后的故障恢复时间。
液冷服务器技术发展态势及在电信业的应用
液冷服务器技术发展态势
液冷服务器技术也称为服务器芯片液体冷却技术,采用特种或经特殊处理的液体,直接或近距离间接换热冷却芯片或者IT整体设备,具体包括冷板式冷却、浸没式冷却和喷淋式冷却3种形态。液冷服务器可以针对CPU热岛精确定点冷却,精确控制制冷分配,能真正将高密度部署带到前所未有的更高层级(例如20kW~100kW高密度数据中心),是数据中心节能技术的发展方向之一,3种液冷技术对比如表1所示。
液冷服务器在运营商IT建设中的应用
液冷服务器技术目前在我国仍处于应用初期,产业链尚不完备、设备采购成本偏高、采购渠道少、电子元器件的兼容性低、液冷服务器专用冷却液成本高等问题是液冷服务器尚未大规模推广的重要原因。从液冷服务器在运营商数据中心领域的具体应用案例来看,运营商在IT云资源池规划和建设过程中,通常会对液冷服务器的发展现状、技术成熟度等进行分析论证。
考虑到目前液冷服务器规模化应用尚处于起步阶段,需要3~5年的引入期,因此暂时未在IT云资源池建设中进行大规模落地部署,但在部分地区有小规模应用,如中国移动南方基地数据中心已经开展液冷服务器试点应用,中国联通研究院也在开展边缘数据中心服务器喷淋式液冷系统的开发。未来,随着IT云建设规模、建设密度的继续攀升,以及液冷产业生态体系的逐步成熟,液冷服务器在IT云建设中将有更大的应用空间。
总体来看,运营商IT云资源池建设对服务器计算性能、延迟、吞吐、制冷、定制化、分布式部署等方面都提出了更高要求。未来,GPU服务器、定制化整机柜服务器、液冷服务器等新兴服务器技术将快速迭代,为运营商数据中心服务器技术的发展和演进带来新的思路和路径。
“云是一个更上层、更抽象、更玄乎的概念。而分布式是一个很具体的概念。若没有分布式,云就无从谈起。但分布式计算却不一定都是云。”分布式是通过应用设计,将任务进行分解。云计算是通过类似网格的东西,由系统自动进行资源组合。什么是分布式计算?所谓分布式计算是一门计算机科学,它研究如何把一个需要非常巨大的计算能力才能解决的问题分成许多小的部分,然后把这些部分分配给许多计算机进行处理,最后把这些计算结果综合起来得到最终的结果。 最近的分布式计算项目已经被用于使用世界各地成千上万位志愿者的计算机的闲置计算能力,通过因特网,您可以分析来自外太空的电讯号,寻找隐蔽的黑洞,并探索可能存在的外星智慧生命;您可以寻找超过1000万位数字的梅森质数;您也可以寻找并发现对抗艾滋病病毒的更为有效的药物。这些项目都很庞大,需要惊人的计算量,仅仅由单个的电脑或是个人在一个能让人接受的时间内计算完成是决不可能的。分布式计算是利用互联网上的计算机的 CPU 的闲置处理能力来解决大型计算问题的一种计算科学。下面,我们看看它是怎么工作的:首先, 要发现一个需要非常巨大的计算能力才能解决的问题。这类问题一般是跨学科的、极富挑战性的、人类急待解决的科研课题。其中较为著名的是:1解决较为复杂的数学问题,例如:GIMPS(寻找最大的梅森素数)。2研究寻找最为安全的密码系统,例如:RC-72(密码破解)。3生物病理研究,例如:Folding@home(研究蛋白质折叠,误解,聚合及由此引起的相关疾病)。4各种各样疾病的药物研究,例如:United Devices(寻找对抗癌症的有效的药物)。5信号处理,例如:SETI@Home(在家寻找地外文明)。从这些实际的例子可以看出,这些项目都很庞大,需要惊人的计算量,仅仅由单个的电脑或是个人在一个能让人接受的时间内计算完成是决不可能的。在以前,这些问题都应该由超级计算机来解决。但是, 超级计算机的造价和维护非常的昂贵,这不是一个普通的科研组织所能承受的。随着科学的发展,一种廉价的、高效的、维护方便的计算方法应运而生——分布式计算!随着计算机的普及,个人电脑开始进入千家万户。与之伴随产生的是电脑的利用问题。越来越多的电脑处于闲置状态,即使在开机状态下CPU的潜力也远远不能被完全利用。我们可以想象,一台家用的计算机将大多数的时间花费在“等待”上面。即便是使用者实际使用他们的计算机时,处理器依然是寂静的消费,依然是不计其数的等待(等待输入,但实际上并没有做什么)。互联网的出现, 使得连接调用所有这些拥有限制计算资源的计算机系统成为了现实。那么,一些本身非常复杂的但是却很适合于划分为大量的更小的计算片断的问题被提出来,然后由某个研究机构通过大量艰辛的工作开发出计算用服务端和客户端。服务端负责将计算问题分成许多小的计算部分,然后把这些部分分配给许多联网参与计算的计算机进行并行处理,最后将这些计算结果综合起来得到最终的结果。当然,这看起来也似乎很原始、很困难,但是随着参与者和参与计算的计算机的数量的不断增加, 计算计划变得非常迅速,而且被实践证明是的确可行的。目前一些较大的分布式计算项目的处理能力已经可以达到甚而超过目前世界上速度最快的巨型计算机。您也可以选择参加某些项目以捐赠的 Cpu 内核处理时间,您将发现您所提供的 CPU 内核处理时间将出现在项目的贡献统计中。您可以和其他的参与者竞争贡献时间的排名,您也可以加入一个已经存在的计算团体或者自己组建一个计算小组。这种方法很利于调动参与者的热情。随着民间的组队逐渐增多, 许多大型组织(例如公司、学校和各种各样的网站)也开始了组建自己的战队。同时,也形成了大量的以分布式计算技术和项目讨论为主题的社区,这些社区多数是翻译制作分布式计算项目的使用教程及发布相关技术性文章,并提供必要的技术支持。那么谁可能加入到这些项目中来呢 当然是任何人都可以! 如果您已经加入了某个项目,而且曾经考虑加入计算小组, 您将在中国分布式计算总站及论坛里找到您的家。任何人都能加入任何由我站的组建的分布式计算小组。希望您在中国分布式总站及论坛里发现乐趣。参与分布式计算——一种能充分发挥您的个人电脑的利用价值的最有意义的选择——只需要下载有关程序,然后这个程序会以最低的优先度在计算机上运行,这对平时正常使用计算机几乎没有影响。如果你想利用计算机的空余时间做点有益的事情,还犹豫什么?马上行动起来吧,你的微不足道的付出或许就能使你在人类科学的发展史上留下不小的一笔呢!专业定义 (中国科学技术信息研究所对分布式计算的定义)分布式计算是近年提出的一种新的计算方式。所谓分布式计算就是在两个或多个软件互相共享信息,这些软件既可以在同一台计算机上运行,也可以在通过网络连接起来的多台计算机上运行。分布式计算比起其它算法具有以下几个优点:1、稀有资源可以共享,2、通过分布式计算可以在多台计算机上平衡计算负载,3、可以把程序放在最适合运行它的计算机上,其中,共享稀有资源和平衡负载是计算机分布式计算的核心思想之一。实际上,网格计算就是分布式计算的一种。如果我们说某项工作是分布式的,那么,参与这项工作的一定不只是一台计算机,而是一个计算机网络,显然这种“蚂蚁搬山”的方式将具有很强的数据处理能力。网格计算的实质就是组合与共享资源并确保系统安全。狭义云计算是指IT基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的资源(硬件、平台、软件)。 提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。这种特性经常被称为像水电一样使用IT基础设施。 2、广义云计算广义云计算是指服务的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的服务。这种服务可以是IT和软件、互联网相关的,也可以是任意其他的服务。解释:这种资源池称为“云”。“云”是一些可以自我维护和管理的虚拟计算资源,通常为一些大型服务器集群,包括计算服务器、存储服务器、宽带资源等等。云计算将所有的计算资源集中起来,并由软件实现自动管理,无需人为参与。这使得应用提供者无需为繁琐的细节而烦恼,能够更加专注于自己的业务,有利于创新和降低成本。有人打了个比方:这就好比是从古老的单台发电机模式转向了电厂集中供电的模式。它意味着计算能力也可以作为一种商品进行流通,就像煤气、水电一样,取用方便,费用低廉。最大的不同在于,它是通过互联网进行传输的。云计算是并行计算(Parallel Computing)、分布式计算(Distributed Computing)和网格计算(Grid Computing)的发展,或者说是这些计算机科学概念的商业实现。云计算是虚拟化(Virtualization)、效用计算(Utility Computing)、IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS(软件即服务)等概念混合演进并跃升的结果。总的来说,云计算可以算作是网格计算的一个商业演化版。早在2002年,我国刘鹏就针对传统网格计算思路存在不实用问题,提出计算池的概念:“把分散在各地的高性能计算机用高速网络连接起来,用专门设计的中间件软件有机地粘合在一起,以Web界面接受各地科学工作者提出的计算请求,并将之分配到合适的结点上运行。计算池能大大提高资源的服务质量和利用率,同时避免跨结点划分应用程序所带来的低效性和复杂性,能够在目前条件下达到实用化要求。”如果将文中的“高性能计算机”换成“服务器集群”,将“科学工作者”换成“商业用户”,就与当前的云计算非常接近了。云计算具有以下特点:(1) 超大规模。“云”具有相当的规模,Google云计算已经拥有100多万台服务器, Amazon、IBM、微软、Yahoo等的“云”均拥有几十万台服务器。企业私有云一般拥有数百上千台服务器。“云”能赋予用户前所未有的计算能力。(2) 虚拟化。云计算支持用户在任意位置、使用各种终端获取应用服务。所请求的资源来自“云”,而不是固定的有形的实体。应用在“云”中某处运行,但实际上用户无需了解、也不用担心应用运行的具体位置。只需要一台笔记本或者一个手机,就可以通过网络服务来实现我们需要的一切,甚至包括超级计算这样的任务。(3) 高可靠性。“云”使用了数据多副本容错、计算节点同构可互换等措施来保障服务的高可靠性,使用云计算比使用本地计算机可靠。(4) 通用性。云计算不针对特定的应用,在“云”的支撑下可以构造出千变万化的应用,同一个“云”可以同时支撑不同的应用运行。(5) 高可扩展性。“云”的规模可以动态伸缩,满足应用和用户规模增长的需要。(6) 按需服务。“云”是一个庞大的资源池,你按需购买;云可以象自来水,电,煤气那样计费。 (7) 极其廉价。由于“云”的特殊容错措施可以采用极其廉价的节点来构成云,“云”的自动化集中式管理使大量企业无需负担日益高昂的数据中心管理成本,“云”的通用性使资源的利用率较之传统系统大幅提升,因此用户可以充分享受“云”的低成本优势,经常只要花费几百美元、几天时间就能完成以前需要数万美元、数月时间才能完成的任务。 云计算可以彻底改变人们未来的生活,但同时也用重视环境问题,这样才能真正为人类进步做贡献,而不是简单的技术提升。信息是人类认知外界的方式,最初的信息都会对应到现实世界的一个客体或者相关描述。人类是通过不断增加、完善信息来接触、认知并改变世界的。最初人类依靠大脑中的神经突触来存储信息,但有些信息是如此重要,所以人们想出一切办法来使这些信息能保存下来。于是人类发明了一种描述信息的信息,这种信息就是数据。
数据是可以保存在一种物理介质上的,其实, 在“说话”的过程中,空气可以被视为一种短暂的物理介质。人类通过振动声带在空气中产生波动,声波在空气中可以短暂保留并扩散,不同波形携带了不同数据,这种波动被鼓膜接收到,达到了数据传递的效果。
但是,空气只能将信息保存一瞬间,之后就要靠大脑了。人是会生老病死的,除了口耳相传,人类需要更可靠的数据存储方法与更长久的物理介质。在过去,人类将数据保存在石板、竹简上,后来人类将数据保存在纸上,配合印刷术,使得信息可以大范围长久传播保存。
人类学会以电磁波的方式承载信息后,距离不再是信息传输的限制,但电话无非是远距离说话,电报无非是快速邮寄的信件,最终所有的信息还要回归到大自然构造的眼睛、耳朵和大脑。直到计算机问世后,人类终于可以突破自己处理信息的生理学极限,让程序和电路代替自己处理信息。
1928年,可存储模拟信号的录音磁带问世,每段磁带随着音频信号电流的强弱不同而被不同程度的磁化,从而使得声音被记录到磁带上。1951年,磁带开始应用于计算机中,最早的磁带机可以每秒钟传输7200个字符。20世纪70年代后期出现的小型磁带盒,可记录约660KB的数据。
1956年,世界上第一个硬盘驱动器出现,应用 在IBM的RAMAC305计算机中,该驱动器能存储5M的数据,传输速度为10K/S,标志着磁盘存储时代的开始。1962年,IBM发布了第一个可移动硬盘驱动器,它有六个14英寸的盘片,可存储26MB数据。1973年,IBM发明了温氏硬盘,其特点是工作时磁头悬浮在高速转动的盘片上方,而不与盘片直接接触,这便是现代硬盘的原型。
1967年,IBM公司推出世界上第一张软盘。随后三十年,软盘盛极一时,成为个人计算机中最早使用的可移介质。这个最初有8英寸的大家伙,可以保存80K的只读数据。四年后,可读写软盘诞生。至上世纪九十年代,软盘尺寸逐渐精简至35英寸,存储容量也逐步增长到250M。截止1996年,全球有多达50亿只软盘被使用。直到CD-ROM(只读光盘,Compact Disc Read-Only Memory)、USB存储设备出现后,软盘销量才开始下滑。
进入21世纪,信息爆炸导致数据量成倍增长,硬盘容量也在飙升,单盘容量已可达到TB级别。即便如此,单块磁盘所能提供的存储容量和速度已经远远无法满足实际业务需求,磁盘阵列应运而生。磁盘阵列使用独立磁盘冗余阵列技术(RAID)把相同的数据存储在多个硬盘,输入输出 *** 作能以平衡的方式交叠进行,改善了磁盘性能,增加了平均故障间隔时间和容错能力。RAID作为高性能、高可靠的存储技术,已经得到非常广泛的应用。
21世纪以来,计算机存储技术飞速发展,如何快速高效的为计算机提供数据以辅助其完成运算成为存储技术新的突破口。在RAID技术实现高速大容量存储的基础上,网络存储技术的出现弱化了空间限制,使得数据的使用更加自由。
网络存储将存储系统扩展到网络上,存储设备作为整个网络的一个节点存在,为其他节点提供数据访问服务。即使计算主机本身没有硬盘,仍可通过网络来存取其他存储设备上的数据。基于网络存储技术,分布式云存储、容灾备份、虚拟化和云计算等技术得以广泛应用。其中,“硬件液化”与“存储资源盘活系统”是其中最新的技术方向。
如果把所有分散硬件都看做一个整体,所有数据统一定义并存储,尽可能充分发挥其中所有硬件的效率,不光会消除数据孤岛,还会提升整体硬件利用率,变相“创造”出新的资源,节省购置新设备与其配套软件、服务设施的成本。这种将所有硬件视为一个整体的概念就是“硬件液化”,即,将原本以各个服务器为单位的硬件资源进行打散、重组,使之像液体一样可以流到任何需要的地方,将数据孤岛溶解在硬件液化的海洋中。
存储资源盘活系统是贯彻硬件液化思想的产品之一,它是纯软件的存储控制器,能够安装在任意Linux服务器上,可以把各服务器中分散的磁盘整合成高性能的存储资源池,通过分布式双控制器架构保证了低延迟、高可用、易拓展的特性;通过完善的控制台、命令行与API来统一调度管理所有存储设备;通过强大的兼容性和独特的硬件异构特性充分利用全部存储资源。
存储资源盘活系统不独占硬件资源,可与现有应用混合部署在同一套硬件设备上,不影响现有业务的运行的同时将闲置存储资源予以整合,帮用户把现有服务器集群中存储资源利用率不高的设备进行统一管理,形成统一存储资源池。可基于异构硬件进行部署,兼容x86、ARM、龙芯等平台设备。可以通过标准 iSCSI 协议为上层应用提供虚拟 Target 和逻辑卷,提供分布式块存储服务并可被灵活调度、分配、使用。
参考资料:
存储小白-为什么需要存储
中国信息通信研究院-下一代数据存储技术研究报告
维基百科-计算机存储技术
IDC-《IDC FutureScape: 全球云计算 2020 年预测——中国启示》
1982年--公司成立,创始人James Clark博士,他发明了几何图形发生器
1983年--推出第一批图形终端
1984年--推出第一批图形工作站
1986年--开始在纽约股票交易所公开发行股票
1987年--推出第一批RISC工作站,成为全球最早一批RISC工作站
1992年--并购了著名的RISC芯片厂家MIPS公司,成立MTI(MIPS技术公司)
1993年--与Time Warner合作开发全球第一个全功能交互式网络系统
1995年--并购了著名的动画软件公司ALIAS WAVEFRONT公司
1996年--SGI推出cc-NUMA结构的新一代服务器
1997年--SGI Internet多媒体宽带网技术取得显著的发展
1998年--推出Fahrenheit计划,SGI与Microsoft和Intel结成战略联盟
1999年--SGI推出基于Intel架构的Windows NT及Linux工作站和服务器
2000年--SGI推出第三代NUMA服务器和超级计算机
2003年--SGI推出基于Intel安腾2、64位Linux的 Altix系列服务器
2004年--SGI推出极具性价比的Altix中端服务器
2005年—SGI推出基于64位Linux系统的高端图形服务器Prism,还推出全系列InfiniteStorage
2006年—SGI推出基于刀片的高性能计算服务器Altix4000,以及Alitx XE集群服务器
2009年—SGI被Rackable Systems 收购,改名为SGI硅图国际,重组后的SGI甩掉了债务上的包袱,大踏步前进
SGI的创始人James Clark吉姆·克拉克博士。在当今的计算机界,SGI 的名字虽不如IBM、HP那样有名,但其产品和技术在图形和高性能计算领域有着其他产品无法替代的地位。SGI公司早期便致力于图形卡的研究和制造,后来便开始生产自己的图形工作站产品。 SGI的创始人是吉姆·克拉克(James Clark)博士,他出生于美国德州乡村小镇,中学辍学参军,靠自学获得中学同等学历。服完兵役的克拉克考进犹他大学专攻电脑制图,1978年获博士学位。四年后,他以自己研制的图形工作站和三维绘图软件创办SGI,然后快速成长为世界著名的图形软硬件制造商。1995年并购著名的动画软件公司Alias Wavefront(2004年售出),从而拥有了属于自己的软件。看看SGI的发展史:1983年,第一批图形终端推出;1984年,第一批图形工作站推出,由此可以看出,它对图形工作站的贡献有多么巨大。大家所熟悉的「侏罗纪公园」、「指环王」、「紧急迫降」等影片均是在SGI的图形工作站上制作出来的。这里顺便说一下,世界**史上花费最大、最成功的**之一——「泰坦尼克号」的成功很大程度上得益于它对电脑动画的大量应用,成功模拟了当时悲壮的情景。世界著名的数字工作室Digital Domain公司用了一年半的时间,动用了300多台SGI超级工作站,并派出50多个特技师一天24小时轮流制作「泰坦尼克号」中的电脑特技。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)