超级计算机、服务器和个人电脑之间有何之间有何区别?

超级计算机、服务器和个人电脑之间有何之间有何区别?,第1张

超级计算机指得是具有很强计算能力的计算机集群,一般包括好几千颗高性能的cpu,计算能力是最强的。而服务器的范围很广,但说白了也是一台高性能的电脑,用来专门对外提供网页,查询,存储或初级计算服务等等功能,可以是多cpu,也可以是单cpu,但规模和超级计算机比起来要差很多。而个人电脑就是只有一颗或多颗(很少有用多cpu作个人电脑的,费电)的普通电脑,可以完成上网,编程,看,玩游戏等。计算能力差,不适合作科学计算。
补充:一般所指的计算能力指的是运算量很大的科学计算,比如数学建模,最优路径搜索,模型求解等等。我曾经用个人电脑(配置一般,P428)计算一个最优路径,少则5分钟,多则40分钟,如果在这样的电脑上开发程序,周期太大,不合适,一天也跑不了几遍,所以必须用服务器或超级计算机。

看看它的电源就能大体估计它最大功耗,一般能有200w左右吧。用360的软件鲁大师可以估算出来。在硬件检测那个标签页,有个功耗估算。我e4600的功耗是:
主板25w
cpu65w
显卡31w
硬盘10w
液晶显示器21w
内存3w
其他15w

自从1964年美国Control Data Corporation公司推出世界首台巨型机CDC 6600以来,由于受科学研究和工程计算的需求牵引,国际巨型计算机技术发展迅猛,其峰值性能已从30多年前的每秒百万次上升到今天的每秒40万亿次(即日本NEC公司的“地球模拟器”系统),平均每10年提高三个数量级。
像其他领域一样,国际巨型机界也有个500强排行榜,它从系统性能、技术方向、制造技术、应用领域等多方面反映了全球实用巨型机计算机的最新发展。分析2002年11月16日发布的第20次世界TOP500巨型机排行榜,从中可看出当前国际巨型机的发展状况。
首先看TOP10:日本NEC公司的“地球模拟器”系统以3586 Tflops的实测性能排名第一;美国HP公司的两台ASCI Q系统分列第二、第三位,实测性能达到773Tflops;IBM公司的ASCI白色系统以723 Tflops的性能屈居第四;两台PC Cluster系统首次进入TOP10,它们分别是第五位Linux NetworX公司的MCR Linux Cluster Xeon和第八位HPTi公司的Dual Xeon,表明这种结构的机器性能提高较快;HP公司的两台AlphaServer SC系统分列第六、七位;进入TOP10的另两个新系统是IBM 公司的pSeries 690,排名第九、十位。入选本次TOP10的最低实测性能已达32Tflops。
从TOP500的总体情况看:实测性能超过1Tflops的系统有47台,峰值性能超过1Tflops的系统有100台,说明万亿次级的巨型机系统已得到越来越广泛的应用;500台系统的总实测性能为293Tflops,入围系统的最低性能为1958Gflops;工业用巨型机系统为226台,研究类系统115台,学术类102台,保密领域32台,自制自用16台,政府部门9台;在结构上,标量巨型机为463台,向量巨型机为37台;就优势产品而言,HP公司以112台系统位居第一,IBM公司以105台系统列第二,SUN公司84台列第三位;美国以46%的安装使用台数、51%的总性能和91%的制造产品仍占居着世界巨型计算机霸主地位。
为占领世界巨型机领域的制高点,夺取信息技术优势,世界各发达国家,特别是美国和日本,不惜投入大量的人力、物力和财力,发展巨型计算机。发展巨型机的源动力来自政府行为和市场驱动两个方面。出于科技发展和国家安全的需要,美国能源部的加速战略计算计划(ASCI),在过去几年中已先后完成了从万亿次到12万亿次的4台超级计算机,并计划近期成30万亿次系统,2004年达到100万亿次。日本是继美国之后巨型机研究力量最强的国家,重点研制大规模并行机和并行向量机,除40万亿次“地球模拟器”系统外,日本计划在2005年研制完成130万亿次的“宇宙模拟器”。另一方面,在市场驱动下,超级计算机正从科学计算向经济和商业各个领域扩展,用于商业的超级计算机,其数量急剧增加,最高性能已突破万亿次。
目前国际上关于巨型机系统的近期目标(2004年左右)是开发百万亿次系统,远期目标(2010年前)是开发千万亿次系统,表1列出了未来几年国外将推出的先进巨型机系统。
表1 未来国外将推出的先进巨型计算机
系统名称
峰值性能
CPU
CPU数量
完成时间
投资方
Cray 红色风暴
40万亿次
AMD Opteron
16000个
2004年
Sandia
Cray X1(原SV2)
524万亿次
定制MSP
4096个
2003年
NSA/DOD
富士通 HPC2500
851万亿次
SPARC64 V
16384个
2003年
富士通公司
IBM ASCI紫色
100万亿次
Power5
12544个
2004年
美国能源部
IBM 蓝色行星
150万亿次
Power5
16384个
2005年
美国能源部
IBM 蓝色基因/L
360万亿次
PowerPC440
65536个
2005年
美国能源部
IBM 蓝色基因/P
1048万亿次
PowerPC440
104万个
2007年
IBM公司
二十一世纪,面对国外巨型计算机快速发展的形势,我们必须紧跟国际发展动态,及时调整发展战略,不断研究新问题,继续坚持自力更生、消化吸收、自主创新、开拓前进的方针,积极钻研巨型计算机系统的关键技术,努力缩小差距,以确保我国在新世纪世界巨型计算机领域占有一席之地。

把各种部件连成一台完整的超级电脑的方法如下:
1首先要确定硬件部件和所需要的资源
需要一个头节点(head node),至少一打的计算节点(compute node),一台以太网交换机,一个电源分配单元(power distribution unit)和一个服务器机架。计算一下电力消耗,冷却需求和占地需求。同样,你需要确定你的私有网络的IP地址段,节点的命名,预计使用的软件包以及搭建 服务集群所用的技术(后面会有更多解释)。
2建立计算节点
需要自己组装计算节点,或者你也可以使用预配置的服务器。
●选择一款能够最大化空间、冷却和能源消耗效率的机架式服务器;
●或者,可以使用一打左右闲置的过时服务器——它们集合在一起工作的性能要比它们独立运行时的总和还多,而且还能省你一大笔钱!整个系统的处理器、网络适配器、主板应该是同一型号的,这样才能达到最佳运行效能。当然了,还要给每个节点配内存和硬盘,并且至少给头节点配一台光驱。
3将服务器装在机架上
安装的时候从下面开始,这样可以避免机架头重脚轻。你可能会需要朋友的帮助才能完成这件事——这么多的服务器将非常的重,把它们放到机架的滑轨上会非常困难。
4在机架顶端安装以太网交换机
现在来配置交换机:允许9000字节的大的帧,将IP地址设置为你在第一步里面确定的静态地址,关闭例如SMTP嗅探这样不必要的路由协议。
5安装能源分配单元
根据目前你的节点的最大需求,可能220V就能满足你的高性能计算需求了。
6 一切都安装妥当之后,就可以开始配置环节了
Linux是高性能计算集群(HPC Cluster) *** 作系统的事实标准,这不仅因为Linux是科学计算的理想环境,也是由于在数以百计甚至千计的节点上安装的时候,Linux不会产生任何花费。设想一下,在如此多的节点上安装Windows会花掉你多少钱呢?
●从更新主板BIOS的固件开始,将所有节点的BIOS固件都更新至最新的版本;
●在每个节点上都安装好你喜欢的Linux发行版,头节点需要安装队图形界面的支持。比较流行的选择,包括CentOS、OpenSuse、Scientific Linux、RedHat以及SLES;
●使用Rocks Cluster Distribution来搭建计算集群。除了它已经安装好计算集群需要使用的所有工具外,Rock还提供了一种通过PXE和RedHat的“Kick Start”来进行批量部署的方案。
7 安装消息传送界面、资源管理器以及其他必须的库
如果上一步里你没有选择Rock做为你的节点的 *** 作系统,那么现在你需要手动设置并行计算机制所必需的软件。
●首先,你需要一个便携的bash管理系统,例如Torque Resource Manager,这些软件允许你划分以及分配计算任务;
●如果安装了Torque Resource Manager,那么你还需要Maui Cluster Scheduler来完成设置;
●其次,需要安装消息传送界面(message passing interface),用来在不同的计算节点的进程之间共享数据。
最后,不要忘了用多线程的数学库及编译器来编写计算任务。
8将所有的计算节点接入网络
头节点负责将任务分配到计算节点,计算节点再把结果返回回来,节点间的消息传递也是如此,所以当然是越快越好了。
●使用私有网络将集群中的所有节点互联起来;
●头节点其实还充当局域网里的NFS、PXE、DHCP以及NTP服务器;
●将该网络从公网中分离出来,这样可以保证该网络中的广播报文不会影响到其他的网络;
9对集群进行测试
在你把你强大的Top500计算集群交付给客户之前,你还要测试一下它的性能。HPL(High Performance Lynpack)评测软件包是测试集群的计算速度的常见选择。你需要从源代码编译它,编译的时候根据你选择的架构,打开所有可能的优化选项。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13349786.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-19
下一篇 2023-07-19

发表评论

登录后才能评论

评论列表(0条)

保存