跪求服务器机房建设方案

跪求服务器机房建设方案,第1张

首先选址,机房设备有些重量会比较重,建机房的时候要首先考虑所选楼层房间的承重。如果承重不够的话就只能选到一楼了,需要强调些,UPS如果延时时间长,电池比较多的话一般都是机头在机房,电池在一楼或者承重比较大的位置。而且精密空调重量也非常重,都会在承重比较大的位置。精密空调的功率也太大了,没有人会把它接到UPS上。
做机房牵扯的东西也比较多,比如防水防雷防静电,还有动力监控,环境监控,门禁等等,以及合理的安排机柜的位置以及精密空调的位置,保证冷热空气循环。咱们30台服务器加上路由交换,6到8个机柜比较合适

服务器没装满硬盘影响散热
服务器系统硬盘为机器运行的根本,系统工作的可靠性已经成为机器应用平台正常稳定运行的先决条件,在服务器应用过程中,保证服务器系统的稳定,机器的高效运行是目前产品测试工作的主要验证项,因此,合理的散热布局、是否拥有良好的散热通道及散热效果是服务器系统硬盘正常工作的基础。
现有的服务器系统硬盘主要布局位置大部分为安装在机箱后端的两侧或者前端,机箱内部散热结构简单,内部风道具有较高的不通畅性,不能完全发挥散热风扇的散热作用,被动散热效果差且无法有效的进行系统盘热量的散出,从而降低了服务器系统硬盘稳定性和可靠性。
技术实现要素:
本实用新型的目的是克服现有技术中的不足,提供一种用于服务器系统硬盘散热装置,通过改变服务器系统硬盘安装位置及设置挡风罩,提高内部风道流畅度,保证了服务器系统硬盘工作时能够进行有效的散热,保证服务器系统硬盘保持在合理的工作环境温度,提高服务器应用平台的工作稳定性。
为了实现上述目的,本实用新型采用的技术方案是:
一种用于服务器系统硬盘散热装置,包括机箱、风扇模组、服务器系统硬盘、挡风罩,所述风扇模组、服务器系统硬盘、挡风罩均安装在机箱上,所述挡风罩设置于风扇模组与服务器系统硬盘之间,服务器系统硬盘位于挡风罩一侧中部,所述挡风罩包括罩体、挡风板、第一侧板、第二侧板,所述第一侧板、第二侧板分别设置于罩体顶部下方中部两侧,所述挡风板设置于第一侧板、第二侧板底部并与第一侧板、第二侧板连接,通过挡风板将罩体与机箱分割成上下两个风道,其中挡风板与罩体顶部之间为上风道,通过上风道为服务器系统硬盘模组提供散热通道,挡风板与机箱之间为下风道,通过下风道为为cpu、内存等部件提供散热通道,所述第一侧板、第二侧板与罩体端部之间形成侧风道,通过侧风道为电源模块与pcie卡提供散热通道,通过风扇模组工作产生的风量进入到挡风罩中不同的风道中,对机箱中不同的元器件进行散热,通过上风道为服务器系统硬盘提供一个单独的风道,可以保证散热风量足够,确保服务器系统硬盘工作时的热量及时散出,从而保证服务器系统硬盘保持在合理的工作环境温度,提高服务器应用平台的工作稳定性。
优选的,所述罩体顶部靠近风扇模组一侧设有凹槽,风扇模组上对应设有凸起,通过凹槽与凸起的配合,可以对挡风罩实现快速安装与定位,提高了挡风罩安装的工作效率。
优选的,所述罩体顶部靠近风扇模组一侧设有第一通孔,通过第一通孔将挡风罩固定安装到风扇模组顶部,防止风扇模组工作进行吹风时将挡风罩吹动发生位移,影响散热效果,从而保证了挡风罩的实用性。
优选的,所述罩体上的两端设有通风孔,所述通风孔分别位于第一侧板、第二侧板的一侧,风扇模组工作时产生的风量可以通过通风孔对电源模块与pcie卡进行有效的散热,提高了散热的效率。
优选的,所述第二侧板的一侧设有侧挡板,所述侧挡板固定安装在罩体上,通过可以保证风量在通风孔出来后,能够直接有效的作用到pcie卡表面,保证了pcie卡散热效果。
优选的,所述第一侧板上设有通槽,所述第二侧板上设有线缆卡扣,通过通槽与线缆卡扣将线缆在挡风罩表面进行有序的排列及可靠的固定,提高了机箱内部的整洁度和可靠度。
优选的,所述挡风板上设有元器件放置框,所述元器件放置框的数量为两个,元器件放置框用于放置bbu电池或其它元器件,提高了机箱内部空间利用率。
优选的,所述元器件放置框底部两侧设有第二通孔,第二通孔用于绳子穿过固定元器件放置框内部的元器件,从而提高了元器件放置框内部的元器件工作时的稳定性。
优选的,所述元器件放置框内侧与外侧均设有加强筋,增强了挡风罩的强度,延长挡风罩使用寿命。
优选的,所述第一侧板、第二侧板的端部设有止回板,所述止回板位于罩体顶部下方,通过止回板防止风扇模组工作时出现漏风现象,产生的风量经由挡风板吹向服务器系统硬盘,提高了风扇模组的工作效率。
本实用新型的有益效果是:
1)通过改变服务器系统硬盘安装位置及设置挡风罩,提高内部风道流畅度,保证了服务器系统硬盘工作时能够进行有效的散热,保证服务器系统硬盘保持在合理的工作环境温度,提高服务器应用平台的工作稳定性。
2)罩体顶部靠近风扇模组一侧设有凹槽,风扇模组上对应设有凸起,通过凹槽与凸起的配合,可以对挡风罩实现快速安装与定位,提高了挡风罩安装的工作效率。
3)罩体顶部靠近风扇模组一侧设有第一通孔,通过第一通孔将挡风罩固定安装到风扇模组顶部,防止风扇模组工作进行吹风时将挡风罩吹动发生位移,影响散热效果,从而保证了挡风罩的实用性。
4)罩体上的两端设有通风孔,所述通风孔分别位于第一侧板、第二侧板的一侧,风扇模组工作时产生的风量可以通过通风孔对电源模块与pcie卡进行有效的散热,提高了散热的效率。
5)第二侧板的一侧设有侧挡板,所述侧挡板固定安装在罩体上,通过可以保证风量在通风孔出来后,能够直接有效的作用到pcie卡表面,保证了pcie卡散热效果。
6)第一侧板上设有通槽,所述第二侧板上设有线缆卡扣,通过通槽与线缆卡扣将线缆在挡风罩表面进行有序的排列及可靠的固定,提高了机箱内部的整洁度和可靠度。
7)挡风板上设有元器件放置框,所述元器件放置框的数量为两个,元器件放置框用于放置bbu电池或其它元器件,提高了机箱内部空间利用率。
8)元器件放置框底部两侧设有第二通孔,第二通孔用于绳子穿过固定元器件放置框内部的元器件,从而提高了元器件放置框内部的元器件工作时的稳定性。
9)元器件放置框内侧与外侧均设有加强筋,增强了挡风罩的强度,延长挡风罩使用寿命。
10)第一侧板、第二侧板的端部设有止回板,所述止回板位于罩体顶部下方,通过止回板防止风扇模组工作时出现漏风现象,产生的风量经由挡风板吹向服务器系统硬盘,提高了风扇模组的工作效率。
附图说明
附图1是本实用新型一种用于服务器系统硬盘散热装置中结构示意图。
附图2是本实用新型一种用于服务器系统硬盘散热装置中挡风罩结构示意图。
附图3是本实用新型一种用于服务器系统硬盘散热装置中挡风罩另一侧结构示意图。
附图4是本实用新型一种用于服务器系统硬盘散热装置中挡风板结构示意图。
图中:1、罩体;2、第一通孔;3、凹槽;4、挡风板;5、第一侧板;6、侧挡板;7、通风孔;8、线缆卡扣;9、机箱;10、加强筋;11、元器件放置框;12、通槽;13、第二侧板;14、止回板;15、第二通孔;16、服务器系统硬盘;17、风扇模组。
具体实施方式
下面结合附图1-4,对本实用新型实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本实用新型一部分实施例,而不是全部的实施例。基于本实用新型中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本实用新型保护的范围。
在本实用新型的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本实用新型,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和 *** 作,因此不能理解为对本实用新型的限制。
一种用于服务器系统硬盘散热装置,包括机箱9、风扇模组17、服务器系统硬盘16、挡风罩,所述风扇模组17、服务器系统硬盘16、挡风罩均安装在机箱9上,所述挡风罩设置于风扇模组17与服务器系统硬盘16之间,服务器系统硬盘16位于挡风罩一侧中部,所述挡风罩包括罩体1、挡风板4、第一侧板5、第二侧板13,所述第一侧板5、第二侧板13分别设置于罩体1顶部下方中部两侧,所述挡风板4设置于第一侧板5、第二侧板13底部并与第一侧板5、第二侧板13连接,通过挡风板4将罩体1与机箱9分割成上下两个风道,其中挡风板4与罩体1顶部之间为上风道,通过上风道为服务器系统硬盘16提供散热通道,挡风板4与机箱9之间为下风道,通过下风道为cpu、内存等部件提供散热通道,所述第一侧板5、第二侧板13与罩体1端部之间形成侧风道,通过侧风道为电源模块与pcie卡提供散热通道,通过风扇模组17工作产生的风量进入到挡风罩中不同的风道中,对机箱9中不同的元器件进行散热,通过上风道为服务器系统硬盘16提供一个单独的风道,可以保证散热风量足够,确保服务器系统硬盘16工作时的热量及时散出,从而保证服务器系统硬盘16保持在合理的工作环境温度,提高服务器应用平台的工作稳定性。
所述罩体1顶部靠近风扇模组17一侧设有凹槽3,风扇模组17上对应设有凸起,通过凹槽3与凸起的配合,可以对挡风罩实现快速安装与定位,提高了挡风罩安装的工作效率,所述罩体1顶部靠近风扇模组17一侧设有第一通孔2,通过第一通孔2将挡风罩固定安装到风扇模组17顶部,防止风扇模组17工作进行吹风时将挡风罩吹动发生位移,影响散热效果,从而保证了挡风罩的实用性,所述罩体1上的两端设有通风孔7,所述通风孔7分别位于第一侧板5、第二侧板13的一侧,风扇模组17工作时产生的风量可以通过通风孔7对电源模块与pcie卡进行有效的散热,提高了散热的效率,所述第二侧板13的一侧设有侧挡板6,所述侧挡板6固定安装在罩体1上,通过可以保证风量在通风孔7出来后,能够直接有效的作用到pcie卡表面,保证了pcie卡散热效果,所述第一侧板5上设有通槽12,所述第二侧板13上设有线缆卡扣8,通过通槽12与线缆卡扣8将线缆在挡风罩表面进行有序的排列及可靠的固定,提高了机箱9内部的整洁度和可靠度。
所述挡风板4上设有元器件放置框11,所述元器件放置框11的数量为两个,元器件放置框11用于放置bbu电池或其它元器件,提高了机箱9内部空间利用率,所述元器件放置框11底部两侧设有第二通孔15,第二通孔15用于绳子穿过固定元器件放置框11内部的元器件,从而提高了元器件放置框11内部的元器件工作时的稳定性,所述元器件放置框11内侧与外侧均设有加强筋10,增强了挡风罩的强度,延长挡风罩使用寿命,所述第一侧板5、第二侧板13的端部设有止回板14,所述止回板14位于罩体1顶部下方,通过止回板14防止风扇模组17工作时出现漏风现象,产生的风量经由挡风板吹向服务器系统硬盘16,提高了风扇模组17的工作效率。
以上内容仅仅是对本实用新型的结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离实用新型的结构或者超越本权利要求书所定义的范围,均应属于本实用新型的保护范围。

Facebook把数据中心建在了北极,微软选择了“海底捞”,阿里把数据中心沉入千岛湖,腾讯和华为则藏进了贵州的山洞里。蓝海大脑液冷数据中心突破传统风冷散热模式,采用风冷和液冷混合散热模式——服务器内主要热源 CPU 利用液冷冷板进行冷却,其余热源仍采用风冷方式进行冷却。通过这种混合制冷方式,可大幅提升服务器散热效率,同时,降低主要热源 CPU 散热所耗电能,并增强服务器可靠性。经检测,采用液冷服务器配套基础设施解决方案的数据中心年均 PUE 值可降低至 12 以下⌄

按照《计算机世界》方案评估中心与多位专家共同讨论形成的评价体系,多位专家对各种入围方案进行了深入研究和客观的分析。 APC-MGE 《大型数据中心制冷解决方案》
采用模块化制冷单元直接与计算机机柜排列成行的制冷方式,将室温空气排出到正在对其进行制冷的服务器前方,解决了以往由于机房内计算机设备摆放密度和空调前、末端送风量不同造成机房内出现冷热区域不均的问题,提高了机房能量效率和制冷能力。模块化的结构也能配置得准确合理。
选择了冷冻水型空调,维修维护方便。如果大楼有24小时冷水提供冷媒,则安装此制冷系统较经济,环保节能。
机房热量估算合理,机架布放考虑了冷热通道摆放正确。可以看出此方案机房空调系统为各种空间提供了高效、且经济的制冷效果,大大节约了空调系统的电能,达到环保节能的目的。
该机房空调方案采用了APC-MGE公司的模块化冷水型空调,已考虑到了绿色节能问题,但距真正意义上的整体绿色节能机房还有很多工作要做。
大楼要常年有24小时冷水提供冷媒,否则,还需再安装一套制冷水装置。而且由于制冷装置是以冷水为冷媒,又与计算机机柜并排安装,需要考虑冷却管道漏水对计算机设备运行安全的威胁。
方案中机房一配置APC-MGE的InRow RC空调1台,没有谈及备机问题。另外,此设计方案对机房加湿要求未进行描述。

艾默生
《电信机房动力能源解决方案》
方案设计合理、完善,能够提供全套机房设备,系统设计上采用全冗余,重点确保动力能源系统的高度稳定,也有服务保证,突出了一站式解决方案的特点,基本满足了整体机房的专业需要,也有成功的实际应用实例。
利用同一厂商的产品和服务,有利于系统的稳定运行和维护,降低了人力成本和管理成本,提高了工作效率。
主要还是一个设备推荐方案,虽然主体中讲明了最大化节约能源,控制企业的运营成本这一主题,但在实际设计中并没有太多体现,主要还是自己公司产品的介绍。
由于采用同一厂商的产品和服务,其结果可能带来的负面作用是系统初期建设投资和运行维护成本都会比较昂贵。

科华恒盛
《广电系统中心机房UPS解决方案》
该方案设计合理,完善,实用性较强。主要体现在供电系统的安全、可靠和高质量性能等方面。意识到电源供电质量是IT基础保障设施,UPS是针对大型数据中心和关键设备,力图实现UPS电源输入的高效节能; 采用工频机UPS,并利用工频机UPS高可靠性等特性,为广电系统机房提供了高可靠性、高可用性和高安全性的UPS电源环境,满足了行业对电源系统的特殊要求。争取做到整机效率高、发热量小,运行损耗小,提高电能利用率,以实现节能省电。
高可用性。采用DSP数控技术及工业级的元器件,模块化结构,提升了UPS的整体性能,确保供电系统高度可靠稳定运行。
可扩展性强,易于维护。UPS采用了无主从自适应并联技术,能够将不同型号、不同功率的UPS并联,用户可根据自身业务发展需要随时进行技术升级或扩容。同时此并联方案还可以任意在线投入或退出并联单元,实现并联系统的在线热维护。
高效节能。UPS采用的IC、CPU以及DSP等技术实现交流电源的功率因数校正和电流谐波抑制,输入谐波失真低于3%,功率因数可高达099,能够有效减轻电网负荷,实现UPS电源输入的高效节能。
易于管理。该方案具有灵活的组网监控能力,可以方便地实现UPS的智能监控,包括近程的点对点通信监控、中距离的独立远程监控器监控、远距离的网络管理监控。同时实现对UPS的运行状态、运行参数等的实时监控。
只提供了功率因数和谐波失真指标,没有提供最主要的效率指标和效率曲线,对节能效果的推导缺乏最直接的依据。
方案中UPS单机运行带载,设备维护或维修时,负载会处在市电状态下供电,对负载来说环保性差。
提供的方案拓朴图中UPS前端输入配电部分没有采用双路供电,影响系统可靠性。

科士达
《内蒙农信智能机房解决方案》
该方案结合银行自身业务特点,在业内率先提出符合新阶段网点信息化建设需求的“银行网点IT基础设施一体化绿色智能解决方案”的全新建设模式,并实施了集ATS、综合配电、UPS电源、电池、防雷、智能管理、线缆管理、机柜、温度控制功能于一体的专用柜式机房为基础的网点绿色智能解决方案,结构紧凑,占地面积小,解决了以往网点设备应用环境恶劣、网点无机柜、线缆无序、网点接地环境差、系统控制与监管难、网络管理与维护难等诸多问题。
采用标准化生产和标准机架设计安装方式,缩短了建设周期,利于推广。
可平滑扩展且极易更换的模块化设计,大幅度提高系统可用性,降低了系统的复杂性及设计、组建、维护、扩容机房的风险。
配合完善的智能监控模块,更能进行预防性故障分析和历史状态记录,减少了系统出现问题的可能性。
一体化的设计和实施方案,极大方便了网点管理人员的维护和管理工作,最大程度降低了人为故障的发生。
将所有功能模块集成在一个机柜中,设备运行发热和环境温度过高时将影响设备的正常运行。电池和IT设备放在一个机柜,如果电池出现泄漏,后果会很严重。
作为一个机柜有了散热功能,但作为一个机房缺乏制冷能力; 只能通风不能满足广大地域的复杂降温要求。同时系统的规模和可扩充性也有很大局限性。
UPS单机运行带载,设备维护或维修时,负载会处在市电状态下供电,对负载来说运行安全性较差。

伊顿爱克赛
《中国电信雅虎机房电源方案》
此方案主要体现在UPS给主要负载构成了一个安全、可靠、完整和高质量的供电系统,在绿色环保和节能方面,考虑到UPS整流会产生大量的电力谐波对电网造成污染,同时影响柴油发电机的带载率,因此,对UPS系统采取必要的谐波改造措施,使其谐波反馈量符合电网的“绿色”负载要求,达到环保和节能的目的,这也是当今用户建设所考虑的关键问题,本方案为用户打造绿色环保机房,提供了一个可选择的方案。
设计目标是在保障电源系统高可靠性的同时,尽可能地降低用户的使用成本指标,在方案中选用伊顿爱克赛智能化滤波+阻波的谐波方案来实现“绿色节能”的目标。UPS采用12脉冲+11次滤波器,有源滤波器和伊顿爱克赛智能化滤波+阻波谐波方案的谐波补偿效果及能耗的技术,该滤波方案功耗低于12脉冲+11次滤波器或有源滤波器,达到实现“绿色节能”的目标。
实现了基于集中旁路的“2+1”冗余并机UPS系统构成的双总线供电设计方案,使供电的可靠性得以大大提升。
所涉及节能数据缺乏第三方验证,没有提供最主要的效率指标和效率曲线,主要还是一个供电方案,与整体机房命题有差距。
系统设计方案中需配置多台UPS设备和相关设备,故一次性投资较大。
从系统实施拓扑图来看,只有4台UPS,与论述中的6台组成2+1冗余并机不符。

说到 PCIe 显卡的散热方案,常见的不外乎面向低功率 GPU 的被动式(散热片)、面向较高 TDP 型号的主动式(风冷)、甚至水冷。在一些高端 游戏 显卡上,会见到采用双风扇或三风扇、甚至占用两三个卡槽高度的散热设计。 不过在本届台北电脑展(Computex 2019)上,外媒 AnandTech 见到了迪兰恒进(Powercolor)展示的“终极 GPU 风冷散热方案”,只是它看起来并非主打消费级平台。

这套散热方案显然更适合服务器等专业应用(题图 viaAnandTech)

迪兰展出的是为 Xilinx 高端 FPGA 模块打造的一套风冷方案,卡片主体被延伸到了另一侧的气流室,由两个风量 250+ 立方英尺 / 分钟(CFM)的高静压风扇提供动力。

这套方案适用于单 PCIe 卡槽的产品,通过分体式的管道,两个风扇可以将空气汇聚吹响散热片。这么做可以最大限度地减少散热片的数量,但不难想象系统运作时的风噪会有些惊人。

作为一套专为服务器设计的方案,其整体显得有些笨重。在本例中,迪兰演示了用于 SmartNIC 或机器学习的 2×100 GbE 产品设计,但该方案显然可适用于数百瓦 TDP 的 GPU 。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12945136.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存