2U4N型服务器的高度与标准2U机架型服务器一致,因此其前面板可以有三种配置形式:12个35英寸硬盘、24个25英寸硬盘,或者不配置硬盘。在这三种前面板配置形态中,使用25英寸硬盘的配置更为普遍。对于这24块25英寸硬盘,既可以是24块SAS/SATA硬盘,也可以是16块SAS/SATA硬盘再加上8块NVMe硬盘。所有的24块25英寸硬盘会被分为4个硬盘区,每个硬盘区里可以有4块SAS/SATA硬盘和2块NVMe硬盘。
Dell EMC PowerEdge C6525服务器前部
在PowerEdge C6525服务器前部两侧的挂耳上,为每一个节点都提供了电源和复位按钮,以及运行状态指示灯。对于2U4N服务器,这是目前非常普遍的设计方法,可以让用户在服务器前部直观地了解到各个节点的运行状态。
PowerEdge C6525这种2U4N服务器的设计特点一般都展示在其后部。机箱后部左右两侧是4个可插拔的2路节点,中间则为电源模块。Dell将节点的型号编码标示在蓝色的把手上,即节省标签空间,又便于用户查看。对于节点的分析我们稍后进行,先重点看看一次电源模块和机箱设计。
Dell EMC PowerEdge C6525服务器后部
Dell为PowerEdge C6525服务器配备了可热插拔的80+铂金电源模块,提供1+1冗余备份。该电源模块可以有1600W、2000W和2400W三种功率选项,根据节点上所用CPU的规格进行选择。
Dell EMC PowerEdge C6525服务器的一次电源
在PowerEdge C6525服务器的机箱内部,Dell使用了4组80mm风扇进行整机散热。对于2U4N型服务器,风扇的设计有两种方式。一种是如PowerEdge C6525服务器这样,使用独立的80mm风扇;另一种是使用较小尺寸的40mm风扇,每个节点都带有自己独立的风扇,不需要共用风扇进行散热。使用共用的风扇,对于降低整机的功耗有一定帮助。但各个节点使用独立的风扇,就可以实现机箱内部所有模块的前维护,运维人员不需要打开机箱上盖就可以更换风扇模块。所以,这两种机箱内的风扇安装方式各有优缺点,需要根据用户需求和设计目的进行选择。
Dell EMC PowerEdge C6525服务器的风扇模块
在机箱的中间,有一个长条形的通道,用于放置管理板、电源电缆和一些控制信号电缆。管理板上会放置BMC芯片,实现对4个节点的管理功能。
Dell EMC PowerEdge C6525服务器的管理板
中央通道的两侧有用于隔离的钣金件,将管理模块和节点分隔开来。这样一来,用户在抽拉节点的时候,机箱内部的各种电缆和节点间就不会存在彼此间的干扰。在插入一次电源模块后,4个节点由4组80mm风扇散热,管理模块则由一次电源模块自带的风扇进行散热。
Dell EMC PowerEdge C6525服务器独立的计算节点和管理节点
2U4N服务器通常用于高性能计算(HPC)和超融合(Hyper Converged)场景,其最有价值的部分就是4个计算型节点,总共可提供8个CPU和对应的内存。PowerEdge C6525服务器的节点使用了AMD EPYC 7002系列CPU,由于节点宽度的限制,每个内存通道只能配置一根DDR DIMM插槽。于是每个CPU可提供8个DDR内存插槽,整个节点可提供16个DDR插槽。
Dell EMC PowerEdge C6525服务器的计算节点
由于计算节点要实现顺畅的插拔,因此Dell在计算节点的前部使用高密连接器来传输信号和电源。高密连接器的体积较小,有助于改善经过CPU的散热风量。
Dell EMC PowerEdge C6525服务器节点的后部
PowerEdge C6525服务器使用的是代号为Rome的AMD EPYC 7002系列处理器,每个CPU可以提供64核心/128线程。于是每个节点可以提供128核心/256线程,整个服务器则可以提供多达1024个线程。
AMD CPU已经可以提供8个内存通道,每个内存通道支持2个DIMM插槽(2DPC),因此每个CPU最多可以配置16个DIMM插槽。但受到节点宽度的影响,只能按照每个内存通道支持1个DIMM插槽的方式(1DPC)进行设计。虽然在内存容量上降低了一半,但每个DIMM插槽可以达到最高速率。由于Intel支持8个内存通道的Ice Lake CPU要到今年底才会推向市场,因此现阶段x86的AMD CPU可以提供最多的内存通道数量。
Dell EMC PowerEdge C6525服务器节点上的CPU和DIMM
使用风冷散热的C6525服务器节点上的每个CPU都有一个大的散热器,在前后两个散热器之间是一个小型的导风罩。导风罩的高度略低于散热器的高低,从而避免在插拔节点的时候与机箱之间产生干涉。
除了风冷节点之外,Dell还和CoolIT Systems公司合作,设计了C6525服务器液冷节点,通过冷板式液给CPU进行散热。国内用户可能对CoolIT Systems这家公司不太熟悉,这是一家专注于液冷解决方案的公司,在OCP组织的液冷项目组里较为活跃。由于C6525服务器节点最高可以支持280W TDP的AMD EPYC 7H12等级CPU,此时使用冷板式液冷,既有必要,又可以获得较好的整机散热性能。
支持液冷的PowerEdge C6525服务器节点
PowerEdge C6525服务器节点的后部主要是各种IO扩展模块。在下图主板的上部放置的是iDRAC 9 BMC芯片,下部则放置了一块OCP NIC 30网卡。由于AMD EPYC系列CPU是SoC设计,不像Intel CPU一样需要外部的PCH模块,因此在主板上没有额外的大芯片。
Dell EMC PowerEdge C6525服务器节点后部
虽然节点的宽度有限,但PowerEdge C6525服务器节点上仍然提供了2个PCIe Gen4 x16的扩展插槽。现阶段,整个服务器市场正在从PCIe Gen3向PCIe Gen4转换,已经有越来越多支持PCIe Gen4速率的部件和服务器机型。随着今年底Intel支持PCIe Gen4速率的Ice Lake CPU推向市场,从2021年开始,PCIe Gen4将会成为服务器产品上的主流。对于2U4N这种高密度的机型,在空间无法进一步扩展的情况下,通过PCIe速率的提升,是提高IO扩展模块性能的最直接手段。
Dell EMC PowerEdge C6525服务器节点上的Riser卡
使用专有的BOSS卡来实现服务器的启动功能,这是Dell服务器的特有设计。在C6525服务器上,支持2个M2模块的BOSS卡放置在DIMM插槽和机箱侧壁之间。使用M2模块,可以有效的减少对机箱前面板25英寸硬盘存储空间的占用,将硬盘空间留给更能带来价值的用户数据和应用程序的存储。
Dell EMC PowerEdge C6525服务器节点上的BOSS卡
在C6525服务器节点后部左侧的下面,Dell放置了1个USB 30 Type-A接口、1个1GbE管理网口、1个mini Display Port和1个用于iDRAC的USB端口。由于受到空间的限制,在节点的后部没有放置更大尺寸的VGA端口。在节点后部左侧的上面,是第一个PCIe x16 Riser扩展插槽。
Dell EMC PowerEdge C6525服务器节点后部左侧
在C6525服务器节点后部右侧的下面,是通过OCP NIC 30网卡扩展的2个高带宽网口。随着OCP NIC 30标准的成熟,这种规格的网口将会在未来的3~4年内成为业界主流。在节点后部右侧的上面,是第二块PCIe Gen4 x16 HHHL Riser插槽。当使用液冷节点的时候,这个插槽位置用来放置液冷管。
Dell EMC PowerEdge C6525服务器节点后部右侧
PowerEdge C6525服务器上使用的OCP NIC 30网卡和规范定义的标准形态略有差异。同样是由于受到节点宽度的限制,Dell在C6525上使用的OCP NIC 30网卡减少了后部的固定螺钉和拆卸扳手。作为替代,在节点内部设计了一个蓝色的塑料扳手,通过扳手来助力OCP NIC 30网卡的拆卸。这是种不得已而为的设计方式,用户如果需要拆卸OCP NIC 30网卡,需要先抽出节点,再经由拆卸扳手将网卡与对应的连接器分离开来,然后才能从节点后部取出。总的来说,这样的设计降低了设备的可维护性。
PowerEdge C6525服务器节点右后部
总 结
2U4N型服务器本身就是高密度计算型服务器,在配备上最新的AMD EPYC 7002系列处理器后,可以提供多达1024个计算线程。由于代号为Milan的第三代AMD EPYC系列处理器与第二代EPYC处理器在Socket上完全兼容,因此Dell EMC的PowerEdge C6525服务器可以顺利地进一步进行升级。由于Dell已经为PowerEdge C6525服务器准备了液冷节点,为更高功耗、更高性能的CPU做好了准备。因此,Dell的2U4N节点服务器将会有更长的生命周期。
推荐阅读:
Supermicro SuperBlade刀片服务器的三重奏
使用Intel N3000 FPGA加速卡的Supermicro 5G边缘服务器
Supermicro用于增加存储密度的两款服务器
Supermicro IP65级户外边缘服务器
Supermicro使用E1L EDSFF存储模块的1U服务器分析
来自网络,版权归原作者所有
本文仅代表作者观点,与就职单位无关。
dell 388服务器上的心电图灯
22年全国拆迁标准已公布,速查
盛廷拆迁律所
广告
服务器指示灯说明!!!!!!!
10下载·0评论
2009年9月9日
dell 388服务器上的心电图灯_边缘服务器现状研究
1316阅读·0评论·0点赞
2020年12月12日
dell r510的介绍
3下载·0评论
2013年6月27日
Dell PowerEdge R230 用户手册文档
31下载·0评论
2018年11月13日
华为服务器显示红色的心跳,服务器心跳检查
523阅读·0评论·0点赞
2021年8月6日
redis使用(3):哨兵、集群、
60阅读·1评论·0点赞
2020年11月8日
拆迁标准,在线咨询北京盛廷律师
盛廷拆迁律所
广告
服务器指示灯说明
5965阅读·0评论·0点赞
2021年6月8日
dell服务器 指示灯_dell服务器i(图标)的指示灯一直闪烁,怎么回事
4284阅读·0评论·0点赞
2020年12月22日
DELL机器诊断灯图
42下载·2评论
2010年6月28日
服务器指示灯详情 中兴,IBM System x服务器前面板指示灯说明(新版)
1690阅读·0评论·0点赞
2021年7月30日
案例:MySQL主从复制与读写分离
202阅读·0评论·0点赞
2020年8月31日
ec服务器如何显示4d,ECToolbox软件四种公式在心肌灌注显像中计算左心室射血分数的应用
122阅读·0评论·0点赞
2021年8月12日
解决DELL R730XD报警亮黄灯无法开机故障
5336阅读·4评论·0点赞
2021年6月4日
dell服务器 指示灯_Dell PowerEdge:传统服务器(第10代和第11代)上的系统LED状态指示灯
3467阅读·0评论·0点赞
2020年12月22日
dell服务器 LCd 状态,dell R720服务器面板指示灯介绍
4376阅读·0评论·1点赞
2021年7月29日
华为服务器显示红色的心跳,客户端服务器心跳
202阅读·0评论·0点赞
2021年8月12日
浪潮发布新型水冷服务器 可以快装移动式液冷集群
893阅读·0评论·0点赞
2020年7月6日
dell 388服务器上的心电图灯_国金计算机服务器行业持续高度景气
271阅读·0评论·0点赞
2020年12月8日
去首页
看看更多热门内容
效果截图
Sendmail :sendmail 是最古老的 MTA(Mail Transfer Agent,电子邮件系统)之一,最早它诞生的时候,Internet 还没有被标准化,当时主机之间使用的是 UUCP 技术来交换邮件。它被设计得比较灵活,便于配置和运行于各种类型的机器。
Qmail :qmail 是新生一代的 MTA 代表,它以速度快、体积小、易配置安装等特性而著称。作者 DJBernstein 是一个数学教授,富有传奇色彩。他于 1995 年开发 qmail,1996 年发布 070 版,并使用了多种当时比较先进的 技术,包括 Maildir,与 sendmail 单个 binary 不同的模块化设计,权限分离,以及使用了大量由他编写的配套工具,如 daemontool,ucsip-tcp 等。qmai迅速成为了 Internet 上最有名的 MTA,使用者众。
postfix :postfix如今已经独树一帜,流水线、模块化的设计,兼顾了效率和功能。灵活的配置和扩展,使得配置 postfix 变得富有趣味。其主要的特点是速度快、稳定,而且配置/功能非常强大,并和 sendmail 类似,提供了与外部程序对接的 API/protocol。尤其是配置部分,postfix 另一个优势是至今依然保持活跃的开发工作,而且稳步发展,适合高流量大负载的系统,扩充能力较强。本实验也是基于 postfix 服务器软件来实现。
邮件服务器基本的工作原理
MUA(Mail User Agent):向外发送邮件,以及提供用户浏览与编写邮件的功能。
MTA(Mail Transfer Agent):(可以理解为 smtpd 服务器)帮忙将用户的邮件传递出去或接收进来。
MDA(Mail Delivery Agent):将接收下来的邮件存放到对应用户邮筒当中的程序。通过分析 MTA 所收到邮件的表头或内容,来判断此邮件是属于哪个用户,然后决定将此邮件投递给哪个用户的邮筒里。
MRA(Mail Retrieval Agent):通过 MRA 服务器提供的邮政服务协议(POP)来接收自己的邮件。
邮件中继:
SMTPD 要支持邮件路由功能,需要打开 Open Relay 开放式中继。
SMTPD 是根据收件人判断邮件是否需要中继,而且只给指定的客户端中继。
注:当 DNS 上存在多个 MX 记录的主机这时就是根据 DNS 的邮件级判断了。DNS 上定义的值越小,其优先级越高。辅助交换器接受到邮件并不能保存邮件。而是这个辅助交换器会等到主邮件交换器空闲的时候把代替它接受下来的邮件在转给主邮件交换器。所以任何邮件处理都是主邮件交换器处理的。所以我们实际情况下,如果有 2 台服务器做邮件交换器,性能比较高的应该为主的。
安装配置过程中,postfix 通过 Internet 发送和接收 email,并存储在用户邮箱里。同时客户也可以通过 IMAP 或者 POP3 恢复他们的邮件。其中的客户认证是通过 Courier Authdaemon 模块的。下图表示出了这个过程:
出现安装界面时,首先按下 <tab> 键切换到确定,然后按下回车。
安装 postfix 的时候会问你安装的服务器类型,对于我们的需要,我们选择默认的 Internet Site,这是最符合我们的服务器类型,然后按下回车确认。
使用 vim 编辑配置文件:
大概在第 31 行,编辑 myhostname,修改为 myhostname = shiyanloucom。
然后我们把 alias_map 参数修改为 alias_maps = hash:/etc/postfix/virtual,之后会讲解 virtual 里面填写什么。
之后设置 mynetworks 段落,它定义可以使用这台服务器的主机,我们这里就用默认的本地地址。你也可设置为其他地址。
编辑完成后按下 Esc 键,输入 :wq 保存退出。
此命令创建了一个用户 master,其中 -d 和 -m 选项用来为登录名 master 产生一个主目录 /usr/master(/usr 为默认的用户主目录所在的父目录)。
我们编写之前设置的 virtual文件,这些邮箱地址是用来传送邮件的。
在这个文件里,我们将设置一个表,对应相关的邮件地址。
完成后保存关闭文件。
我们可以通过调用下面这个命令来实现我们的映射:
接着我们重启 postfix,完成我们的修改:
我们可以用 shiyanlou 这个账号给 master 这个账号发一封邮件。首先我们需要安装一个命令行收发邮件的软件 mailutils 。
写一封邮件
输入如下内容:
其中 -s 参数是指邮件的标题,< 后面是将要发送的邮件内容从 hellotxt 中重定向。这个命令如果正确执行不会有输出。
然后我们切换到 master 用户,查看我们的邮件。
按下回车建可以查看邮件内容,输入 quit 即可退出邮箱。
Linux 邮件服务器原理介绍,编译安装 Postfix 实现本地的邮件服务
Ubuntu 服务器指南-邮件服务-Postfix
how-to-run-your-own-mail-server-with-mail-in-a-box-on-ubuntu-14-04
在Vim 中可以直接查看文件编码
:set fileencoding
即可显示文件编码格式。
2、 改写~/vimrc 文件
如果你只是想查看其它编码格式的文件或者想解决用Vim查看文件乱码的问题,那么你可以在
~/vimrc 文件中添加以下内容:
set encoding=utf-8 fileencodings=ucs-bom,utf-8,cp936
这样,就可以让vim自动识别文件编码(可以自动识别UTF-8或者GBK编码的文件),其实就是依照 fileencodings提供的编码列表尝试,如果没有找到合适的编码,就用latin-1(ASCII)编码打开。
3、 用ICONV文件编码转换
我们利用iconv工具对文件的编码进行转换。
iconv 转换,iconv的命令格式如下:
iconv -f encoding -t encoding inputfile
比如将一个GBK 编码的文件转换成UTF-8编码
iconv -f GBK -t UTF-8 file1 -o file2
其中的参数的意义表示
-f From 某个编码
-t To 某个编码
-o 输出到文件
4、 通过记事本另存为来改变文件编码;
既用Windows下的记事本打开,选择另存为……,改变编码即可。
NewMedia新媒体联盟创始人、移动互联网时代的趋势观察家袁国宝在他的新作《新基建:数字经济重构经济增长新格局》一书中写到详细云数据中心的构建步骤主要分为3步。
新基建
一、虚拟化
利用软硬件管理程序将物理资源映射为虚拟资源的技术被称为虚拟化技术。对关键IT资源进行虚拟化,是打造云数据中心的基础和前提。
云数据中心需要虚拟化的关键IT资源主要有服务器、存储及网络。其中,服务器虚拟化主要包括Unix服务器虚拟化与x86服务器虚拟化。Unix服务器又被称为小型机,而小型机厂商普遍为自身的小型机产品开发了差异化的虚拟化程序,导致这些虚拟化程序无法对其他厂商的小型机产品进行虚拟化。
目前,市场中常见的x86服务器虚拟化产品有VMware ESX/ESXi、微软的Hyper-V、开源KVM虚拟机等。Oracle和华为等服务器厂商还开发了基于Xenia内核的虚拟化平台。
云数据中心需要同时调用不同厂商以及不同类型的服务器资源,而对服务器进行虚拟化后,便可以有效解决不同服务器间的硬件差异问题,使用户获得标准逻辑形式的计算资源。
存储虚拟化的逻辑为:在物理存储系统上增加一个虚拟层,从而将物理存储虚拟化为逻辑存储单元。通过存储虚拟化,云数据中心服务商可以将不同品牌、不同级别的存储设备资源整合到一个大型的逻辑存储空间内,然后对这个存储空间进行划分,以便满足不同用户的个性化需要。
网络虚拟化涉及到了网络设备及网络安全设备、网络本身的虚拟化。其中,需要虚拟化的网络设备及网络安全设备有网卡、路由器、交换机、HBA卡、防火墙、IDS/IPS、负载均衡设备等。网络本身的虚拟化主要涉及到FC存储网络与IP网络的虚拟化。
目前,个体与组织对网络需求愈发个性化,为了更加低成本地满足其需求,云数据中心厂商对网络进行虚拟化成为必然选择。与此同时,网络虚拟化后,云数据中心可以在网络环境与多层应用环境中将非同组用户实现逻辑隔离,这既能提高数据安全性,又能降低网络管理复杂性。
将关键IT资源进行虚拟化后,云数据中心服务商便可以对这些资源进行统一调配与集中共享,大幅度增加资源利用率。测试数据显示,未虚拟化前,数据中心IT资源利用率仅有10%~20%,而虚拟化后的资源利用率达到了50%~60%。
二、资源池化
资源池化是指IT资源完成虚拟化后,为其标上特定的功能标签,再将其分配到不同的资源组,最终完成其池化。
资源池化可以解决不同结构IT设备的规格与标准的差异问题,对资源进行逻辑分类、分组,最终将资源用标准化的逻辑形式提供给用户。资源池化过程中,云数据中心服务商可按照硬件特性,对不同服务等级的资源池组进行划分。云数据中心的资源池主要包括服务器资源池、存储资源池及网络资源池。
存储资源池化过程中,云数据中心服务商需要重点分析存储容量、FC SAN网络需要的HBA卡的端口数量、IP网络所需的网卡端口数量等是否与自身的业务规模相匹配。
网络资源池化过程中,云数据中心服务商则需要重点分析进出口链路带宽、HBA卡与端口数量、IP网卡与端口数量,安全设备端口数量与带宽等是否与自身的业务规模相匹配。
三、自动化
自动化是指使IT资源都具备按照预设程序进行处理的过程。如果说IT资源的虚拟化与池化能够让数据中心的计算能力、存储空间、网络带宽与链路等成为动态化的基础设施,那么,IT资源的自动化便是让数据中心获得了一套能够对基础设施进行自动化管理的有效工具。
云数据中心可以利用基于SOA的流程管理工具对数据中心的业务任务、IT任务进行统一IT编排。然后利用可编程的工作流程工具从资产中解耦工作流程及流程的执行逻辑。在IT编排工具的帮助下,系统设计师可以对现有工作流程进行修改,添加新的工作流程,甚至利用可重复使用的适配器对资产进行修改等,不需要重新开展工作,有效降低开发人力、物力成本。
随着硬件支撑服务器虚拟化的提升,托管VMware虚拟机VM)变得很容易。但是连同内存、CPU以及调度的限制,托管多少虚拟机算是多呢?
我们询问了三位IT专家关于他们见到的每台主机上的VMware虚拟机数量,以及这些VMware虚拟机的工作效率如何。虽然一个服务器主机塞满500台以上的VMware虚拟机,有时少即是多。风险、利用率以及内存等成为了决定性因素。
虚拟化并不仅仅是将尽可能多的服务器合并到一起,事实上它需要做一些实际的事情。你将带有1MB内存的虚拟机和其他两个VMware虚拟机共享一个内核,但是这一点毫无意义,因为计算机性能也随之降低。在其他问题之中,多于三个虚拟机共享一个内核可引发调度难题。然而这并不意味着合并虚拟机是微不足道的。一个高端服务器使用15内核的Intel Xeon E7处理器可相比于60个可用的内核。理想化的,实际上可托管180个VMware虚拟机。有足够的内存和I/O来支撑这个负载,这是从实际出发得出的。 系统管理员说:“我们有扩展虚拟机基础设施,在8个主机上放置256GB的内存和快速CPU。在NetApp中我们也有支持10Gbps连通性以及256GB闪存的网络文件系统(NFS)。使用VMware虚拟机 ESXi 5X,我们可以在每个节点运行最多24个VMware虚拟机,通常每台主机有15台VMware虚拟机。所以我们看到CPU利用率不足3%-5%,RAM利用率为7%-11%。”
我们能够在一台服务器主机上放置48台甚至更多的VMware虚拟机,几乎很少看到服务器能力下降。但是低的利用率很容易使我们产生推出新项目的想法。当服务器主机能力下降的情况出现时,我们会将VMware虚拟机分配以促进自动故障转移。不需要移除任何VMware虚拟机就能够为服务器主机修改漏洞以及升级。
VMware虚拟机在很大成分上是Web服务器,尽管我们有交互式登陆机器(Windows 和Linux)和MySQL数据库,对于数字运算应用的虚拟机来说没有太密集型的计算。
硬件升级的过程中,当我们转移至新设备时将125个VMware虚拟机放到两个节点上。甚至是将两个节点的整个内存分裂开。VMware虚拟机基础设施仍然不会成为负担。 在虚拟桌面技术设施(VDI)环境中,我曾看到一个服务器上有150-200台VMware虚拟机虚拟机。大部分的大型VMware虚拟机依靠于四插座的机架服务器。在VDI环境下,根据工作量有不同的合并率。
我也看见过一台服务器上有大约80台VMware虚拟机,因为那个公司想要深度合并;这涉及到管理上的问题。深度合并之后一台服务器主机上的许多VMware虚拟机也都工作良好,但是真正的问题是风险:企业想冒着一台主机上放置80个VMware虚拟机这样的风险么?万一服务器衰退了会发生什么?企业能否承受一下失去80台VMware虚拟机的风险? IT *** 作经理说:“我看到的最多的是一台服务器主机上有31台VMware虚拟机,在Cisco UCS 刀片服务器上使用Microsoft Hyper-V进行虚拟化,可提供256GB RAM 两个8核Intel E5-2665 CPU。存储器是光纤连接EMC SAN内含SSD缓存。”
自从我们在RAM、CPU、或者是I/O利用率上越来越接近天花板,服务器主机上有31个VMware虚拟机已经不是界限,我们在想做的事情上有更多的灵活性。一些VMware虚拟机是高效利用的,而一些VMware虚拟机利用率却很低。我们可以在修复漏洞以及重启时,在6个UCS主机之间转移工作量。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)