pacs 机房 验收标准、服务器验收标准、存储验收标准、硬件验收标准,总之关于paca 所有的验收标准都需。

pacs 机房 验收标准、服务器验收标准、存储验收标准、硬件验收标准,总之关于paca 所有的验收标准都需。,第1张

结构层次
(一) 物理层次
从物理层次结构上,PACS可以分为4层:网络用户层、接入层、核
PACS应用层次结构示意图
PACS应用层次结构示意图
心层、资源提供层,自下而上构成一个"金字塔"结构。其中:网络用户层是网络中的众多的终端或工作站;接入层是指与网络用户层中的终端或工作站相连接,为这些终端或工作站进行网络互联的网络设备集合(如二级交换机、集线器等);核心层是指将接入层网络设备汇集起来,形成全网互联的网络设备的集合,如(服务器、路由器、防火墙等);资源提供层是指PACS网络中的众多的医疗器械终端,如(CT、US、DR等)。
(二) 应用层次
从应用层次结构上,PACS可以分为3层:MINI-PACS、科室
PACS应用层次结构示意图
PACS应用层次结构示意图
级PACS、全院级PACS,自内而外构成一个"内嵌型"结构。其中:MINI-PACS是指针对小型医疗院所或单一科室规划的系统,MINI-PACS系统也必须包含超声波、内窥镜等图文并茂的专业影像报告系统;科室级PACS是指针对中型医院所提出的科室架构,紧密整合院方已有的HIS/RIS系统 ,建立以患者为中心的科室影像中心;全院级PACS主要是针对大型医院所提出的全院性架构,完全实现全院影像科室数字化读片诊断工作流程、实现全院影像科室电子化管理。
工作流程
现有主流PACS厂商,在研发PACS系统之初,都遵从了以下标准流程。
PACS业务流程图
PACS业务流程图
(一) 检查信息登记输入
前台登记工作站录入患者基本信息及检查申请信息,也可通过检索HIS系统(如果存在HIS并与PACS/RIS融合)进行病人信息自动录入,并对病人进行分诊登记、复诊登记、申请单扫描、申请单打印、分诊安排等工作。
(二) WorkList服务
病人信息一经录入,其他工作站可直接从PACS系统主数据库中自动调用,无需重新手动录入;具有WorkList服务的医疗影像设备可直接由服务器提取相关病人基本信息列表,不具备WorkList功能影像设备通过医疗影像设备 *** 作台输入病人信息资料或通过分诊台提取登记信息。
(三) 影像获取
对于标准 DICOM 设备,采集工作站可在检查完成后或检查过程中自动 ( 或手动 ) 将影像转发至PACS主服务器。
(四) 非DICOM转换
对于非DICOM设备,采集工作站可使用MiVideo DICOM网关收到登记信息后,在检查过程中进行影像采集,采集的影像自动(或由设备 *** 作技师手动转发)转发至PACS主服务器。
(五) 图像调阅
患者在检查室完成影像检查后,医师可通过阅片室的网络进行影像调阅、浏览及处理,并可进行胶片打印输出后交付患者。
需要调阅影像时PACS系统自动按照后台设定路径从主服务器磁盘阵列或与之连接的前置服务器中调用。
在图像显示界面,医师一般可以进行一些测量长度、角度、面积等图像后处理,在主流PACS中,除了测量功能外,都会提供缩放、移动、镜像、反相、旋转、滤波、锐化、伪彩、播放、窗宽窗位调节等图像后处理功能。
(六) 报告编辑
患者完成影像检查后由专业人员对影像质量进行评审,并进行质量分析。完成质量评审控制后的影像,诊断医生可进行影像诊断报告编辑,并根据诊断医师权限,分别进行初诊报告、报告审核工作。在书写报告过程中,可使用诊断常用词语模版,以减少医生键盘输入工作量。诊断报告审核过程中可对修改内容进行修改痕迹保留、可获得临床诊断、详细病史、历史诊断等信息、可将报告存储为典型病例供其它类似诊断使用,供整个科室内学习提高使用。
审核完成的报告通过打印机进行输出后由医师签字后提交,同时诊断报告上传至主服务器存储备份。打印完成后的报告不能再进行修改,但可以只读方式调阅参考。
6架构数据
存储技术架构
PACS有别于HIS、LIS等其它医学信息系统的最重要一点就是:海量数据存储。合理设计PACS的数据存储结构,是成功建设PACS的关键。一个大型的医院拥有大批现代化的大型医疗影像设备,每天影像检查产生的数据量多达4个GB左右(未压缩的原始数据),一年数据总量多约(1200GB)。而随着医院的业务飞速发展和新的影像设备的引进,这一数据量还可能进一步增长。此外,如何提高在线数据随机存取的效率也是一个非常关键的问题。
基于这一原因,现有的PACS医疗影像信息系统提供商多采用分级存储(HSM)的策略,将PACS存储分成在线存储和离线存储两级结构。用两种不同性能的存储介质来分别完成高容量和高效率的要求,低速超大容量存储设备(离线存储服务器)用作永久存储;高速存储设备(SAN)用作在线数据存储,确保在线数据的极高效存取。对于2年以上的历史数据保存在离线存储设备里,在线存储设备仅保存最近三年的数据。
文件格式
DICOM文件是指按照DICOM标准而存储的医学文件。
DICOM文件由多个数据集组成。数据集表现了现实世界信息对象的相关属性,如病人姓名、性别、身高和体重等。数据集由数据元素组成,数据元素包含进行编 码的信息对象属性的值,并由数据元素标签(Tag)唯一标识。数据元素具有三种结构,其中两种具有类型表示VR(是否出现由传输语法决定),差别在于其长 度的表达方式,另外一种不包括类型表示。类型表示指明了该数据元素中的数据是哪种类型,它是一个长度为2的字符串,例如一个数据元素的VR为FL,表示该数据元素中存储的数据类型为浮点型。所有数据元素都包含标签、值长度和数据值体。
标签是一个16位无符号整数对,按顺序排列包括组号和元素号。数据集中的数据元素应按数据元素标签号的递增顺序组织,且在一个数据集中最多出现一次。
值长度是一个16或32位(取决于显式VR或隐式VR)无符号整数,表明了准确的数据值的长度,按字节数目(为偶数)记录。此长度不包含数据元素标签、VR、值长度字段。
数据值体表明了数据元素的值,其长度为偶数字节,该字段的数据类型是由数据元素的VR所明确定义。数据元素字段由三个公共字段和一个可选字段组成。
数据结构
以现广东市场上的主流SUPER PACS系统为例。
目前SUPER PACS系统数据库共有36个表,按用途分为:公用表、数字胶片室专用表、放射专用表、超声专用表、远程专用表。其中起到关键性作用的是Patient、Study、Series、Image四个主表。
Patient表用于存放病人的基本信息,应用范围涉及到SUPER PACS的所有子系统;Study表用于存放病人的检查信息,应用范围涉及到SUPER PACS的所有子系统;Series表用于图象序列表的生成,应用范围涉及到SUPERPACSR DICOM放射系统;Image表用于保存系统图象记录。

分类: 电脑/网络 >> 硬件
解析:

磁盘阵列技术

磁盘阵列(DiscArray)是由许多台磁盘机或光盘机按一定的规则,如分条(Striping)、分块(Declustering)、交叉存取(Interleaving)等组成一个快速,超大容量的外存储器子系统。它在阵列控制器的控制和管理下,实现快速,并行或交叉存取,并有较强的容错能力。从用户观点看,磁盘阵列虽然是由几个、几十个甚至上百个盘组成,但仍可认为是一个单一磁盘,其容量可以高达几百~上千千兆字节,因此这一技术广泛为多媒体系统所欢迎。

盘阵列的全称是:

RedundanArrayofInexpensiveDisk,简称RAID技术。它是1988年由美国加州大学Berkeley分校的DavidPatterson教授等人提出来的磁盘冗余技术。从那时起,磁盘阵列技术发展得很快,并逐步走向成熟。现在已基本得到公认的有下面八种系列。
1RAID0(0级盘阵列)

RAID0又称数据分块,即把数据分布在多个盘上,没有容错措施。其容量和数据传输率是单机容量的N倍,N为构成盘阵列的磁盘机的总数,I/O传输速率高,但平均无故障时间MTTF(MeanTimeToFailure)只有单台磁盘机的N分之一,因此零级盘阵列的可靠性最差。

2RAID1(1级盘阵列)

RAID1又称镜像(Mirror)盘,采用镜像容错来提高可靠性。即每一个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时只从工作盘读出。一旦工作盘发生故障立即转入镜像盘,从镜像盘中读出数据,然后由系统再恢复工作盘正确数据。因此这种方式数据可以重构,但工作盘和镜像盘必须保持一一对应关系。这种盘阵列可靠性很高,但其有效容量减小到总容量一半以下。因此RAID1常用于对出错率要求极严的应用场合,如财政、金融等领域。

3RAID2(2级盘阵列)

RAID2又称位交叉,它采用汉明码作盘错检验,无需在每个扇区之后进行CRC(CyclicReDundancycheck)检验。汉明码是一种(n,k)线性分组码,n为码字的长度,k为数据的位数,r为用于检验的位数,故有:n=2r-1r=n-k

因此按位交叉存取最有利于作汉明码检验。这种盘适于大数据的读写。但冗余信息开销还是太大,阻止了这类盘的广泛应用。

4RAID3(3级盘阵列)

RAID3为单盘容错并行传输阵列盘。它的特点是将检验盘减小为一个(RAID2校验盘为多个,DAID1检验盘为1比1),数据以位或字节的方式存于各盘(分散记录在组内相同扇区号的各个磁盘机上)。它的优点是整个阵列的带宽可以充分利用,使批量数据传输时间减小;其缺点是每次读写要牵动整个组,每次只能完成一次I/O。

5RAID4(4级盘阵列)

RAID4是一种可独立地对组内各盘进行读写的阵列。其校验盘也只有一个。

RAID4和RAID3的区别是:RAID3是按位或按字节交叉存取,而RAID4是按块(扇区)存取,可以单独地对某个盘进行 *** 作,它无需象RAID3那样,那怕每一次小I/O *** 作也要涉及全组,只需涉及组中两台磁盘机(一台数据盘,一台检验盘)即可。从而提高了小量数据的I/O速率。

6RAID5(5级盘阵列)

RAID5是一种旋转奇偶校验独立存取的阵列。它和RAID1、2、3、4各盘阵列的不同点,是它没有固定的校验盘,而是按某种规则把其冗余的奇偶校验信息均匀地分布在阵列所属的所有磁盘上。于是在同一台磁盘机上既有数据信息也有校验信息。这一改变解决了争用校验盘的问题,因此DAID5内允许在同一组内并发进行多个写 *** 作。所以RAID5即适于大数据量的 *** 作,也适于各种事务处理。它是一种快速,大容量和容错分布合理的磁盘阵列。

7RAID6(6级盘阵列)

RAID6是一种双维奇偶校验独立存取的磁盘阵列。它的冗余的检、纠错信息均匀分布在所有磁盘上,而数据仍以大小可变的块以交叉方式存于各盘。这类盘阵列可容许双盘出错。

8RAID7(7级盘阵列)

RAID7是在RAID6的基础上,采用了cache技术,它使得传输率和响应速度都有较大的提高。Cache是一种高速缓冲存储器,即数据在写入磁盘阵列以前,先写入cache中。一般采用cache分块大小和磁盘阵列中数据分块大小相同,即一块cache分块对应一块磁盘分块。在写入时将数据分别写入两个独立的cache,这样即使其中有一个cache出故障,数据也不会丢失。写 *** 作将直接在cache级响应,然后再转到磁盘阵列。数据从cache写到磁盘阵列时,同一磁道的数据将在一次 *** 作中完成,避免了不少块数据多次写的问题,提高了速度。在读出时,主机也是直接从cache中读出,而不是从阵列盘上读取,减少与磁盘读 *** 作次数,这样比较充分地利用了磁盘带宽。

这样cache和磁盘阵列技术的结合,弥补了磁盘阵列的不足(如分块写请求响应差等缺陷),从而使整个系统以高效、快速、大容量、高可靠以及灵活、方便的存储系统提供给用户,从而满足了当前的技术发展的需要,尤其是多媒体系统的需要。

解析磁盘阵列的关键技术

存储技术在计算机技术中受到广泛关注,服务器存储技术更是业界关心的热点。一谈到服务器存储技术,人们几乎立刻与SCSI(Small Computer Systems Interface)技术联系在一起。尽管廉价的IDE硬盘在性能、容量等关键技术指标上已经大大地提高,可以满足甚至超过原有的服务器存储设备的需求。但由于Inter的普及与高速发展,网络服务器的规模也变得越来越大。同时,Inter不仅对网络服务器本身,也对服务器存储技术提出了苛刻要求。无止境的市场需求促使服务器存储技术飞速发展。而磁盘阵列是服务器存储技术中比较成熟的一种,也是在市场上比较多见的大容量外设之一。

在高端,传统的存储模式无论在规模上,还是安全上,或是性能上,都无法满足特殊应用日益膨胀的存储需求。诸如存储局域网(SAN)等新的技术或应用方案不断涌现,新的存储体系结构和解决方案层出不穷,服务器存储技术由直接连接存储(DAS)向存储网络技术(NAS)方面扩展。在中低端,随着硬件技术的不断发展,在强大市场需求的推动下,本地化的、基于直接连接的磁盘阵列存储技术,在速度、性能、存储能力等方面不断地迈上新台阶。并且,为了满足用户对存储数据的安全、存取速度和超大的存储容量的需求,磁盘阵列存储技术也从讲求技术创新、重视系统优化,以技术方案为主导的技术推动期逐渐进入了强调工业标准、着眼市场规模,以成熟产品为主导的产品普及期。

回顾磁盘阵列的发展历程,一直和SCSI技术的发展紧密关联,一些厂商推出的专有技术,如IBM的SSA(Serial Storage Architecture)技术等,由于兼容性和升级能力不尽如人意,在市场上的影响都远不及SCSI技术广泛。由于SCSI技术兼容性好,市场需求旺盛,使得SCSI技术发展很快。从最原始5MB/s传输速度的SCSI-1,一直发展到现在LVD接口的160MB/s传输速度的Ultra 160 SCSI,320MB/s传输速度的Ultra 320 SCSI接口也将在2001年出现(见表1)。从当前市场看,Ultra 3 SCSI技术和RAID(Redundant Array of Inexpensive Disks)技术还应是磁盘阵列存储的主流技术。

SCSI技术

SCSI本身是为小型机(区别于微机而言)定制的存储接口,SCSI协议的Version 1 版本也仅规定了5MB/s传输速度的SCSI-1的总线类型、接口定义、电缆规格等技术标准。随着技术的发展,SCSI协议的Version 2版本作了较大修订,遵循SCSI-2协议的16位数据带宽,高主频的SCSI存储设备陆续出现并成为市场的主流产品,也使得SCSI技术牢牢地占据了服务器的存储市场。SCSI-3协议则增加了能满足特殊设备协议所需要的命令集,使得SCSI协议既适应传统的并行传输设备,又能适应最新出现的一些串行设备的通讯需要,如光纤通道协议(FCP)、串行存储协议(SSP)、串行总线协议等。渐渐地,“小型机”的概念开始弱化,“高性能计算机”和“服务器”的概念在人们的心目中得到强化,SCSI一度成为用户从硬件上来区分“服务器”和PC机的一种标准。

通常情况下,用户对SCSI总线的关心放在硬件上,不同的SCSI的工作模式意味着有不同的最大传输速度。如40MB/s的Ultra SCSI、160MB/s的Ultra 3 SCSI等等。但最大传输速度并不代表设备正常工作时所能达到的平均访问速度,也不意味着不同SCSI工作模式之间的访问速度存在着必然的“倍数”关系。SCSI控制器的实际访问速度与SCSI硬盘型号、技术参数,以及传输电缆长度、抗干扰能力等因素关系密切。提高SCSI总线效率必须关注SCSI设备端的配置和传输线缆的规范和质量。可以看出,Ultra 3模式下获得的实际访问速度还不到Ultra Wide模式下实际访问速度的2倍。

一般说来,选用高速的SCSI硬盘、适当增加SCSI通道上连接硬盘数、优化应用对磁盘数据的访问方式等,可以大幅度提高SCSI总线的实际传输速度。尤其需要说明的是,在同样条件下,不同的磁盘访问方式下获得的SCSI总线实际传输速度可以相差几十倍,对应用的优化是获得高速存储访问时必须关注的重点,而这却常常被一些用户所忽视。按4KB数据块随机访问6块SCSI硬盘时,SCSI总线的实际访问速度为274MB/s,SCSI总线的工作效率仅为总线带宽的17%;在完全不变的条件下,按256KB的数据块对硬盘进行顺序读写,SCSI总线的实际访问速度为1412MB/s,SCSI总线的工作效率高达总线带宽的88%。

随着传输速度的提高,信号传输过程中的信号衰减和干扰问题显得越来越突出,终结器在一定程度上可以起到降低信号波反射,改善信号质量的作用。同时,LVD(Low-Voltage Differential)技术的应用也越来越多。LVD工作模式是和SE(Single-Ended)模式相对应的,它可以很好地抵抗传输干扰,延长信号的传输距离。同时,Ultra 2 SCSI和Ultra 3 SCSI模式也通过采用专用的双绞型SCSI电缆来提高信号传输的质量。

在磁盘阵列的概念中,大容量硬盘并不是指单个硬盘容量大,而是指将单个硬盘通过RAID技术,按RAID 级别组合成更大容量的硬盘。所以在磁盘阵列技术中,RAID技术是比较关键的,同时,根据所选用的RAID级别的不同,得到的“大硬盘”的功能也有不同。

RAID是一项非常成熟的技术,但由于其价格比较昂贵,配置也不方便,缺少相对专业的技术人员,所以应用并不十分普及。据统计,全世界75%的服务器系统目前没有配置RAID。由于服务器存储需求对数据安全性、扩展性等方面的要求越来越高,RAID市场的开发潜力巨大。RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的只有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。

RAID 0是无数据冗余的存储空间条带化,具有低成本、极高读写性能、高存储空间利用率的RAID级别,适用于Video / Audio信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘损坏都将带来数据灾难性的损失。所以,在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。

RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。但其无法扩展(单块硬盘容量),数据空间浪费大,严格意义上说,不应称之为“阵列”。

RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低,不能称之为经济高效的方案。

RAID 5是目前应用最广泛的RAID技术。各块独立硬盘进行条带化分割,相同的条带区进行奇偶校验(异或运算),校验数据平均分布在每块硬盘上。以n块硬盘构建的RAID 5阵列可以有n-1块硬盘的容量,存储空间利用率非常高(见图6)。任何一块硬盘上数据丢失,均可以通过校验数据推算出来。它和RAID 3最大的区别在于校验数据是否平均分布到各块硬盘上。RAID 5具有数据安全、读写速度快,空间利用率高等优点,应用非常广泛,但不足之处是1块硬盘出现故障以后,整个系统的性能大大降低。

对于RAID 1、RAID 0+1、RAID 5阵列,配合热插拔(也称热可替换)技术,可以实现数据的在线恢复,即当RAID阵列中的任何一块硬盘损坏时,不需要用户关机或停止应用服务,就可以更换故障硬盘,修复系统,恢复数据,对实现HA(High Availability)高可用系统具有重要意义。

各厂商还在不断推出各种RAID级别和标准。例如更高安全性的,从RAID控制器开始镜像的RAID;更快读写速度的,为构成RAID的每块硬盘配置CPU和Cache的RAID等等,但都不普及。用IDE硬盘构建RAID的技术是新出现的一个技术方向,对市场影响也较大,其突出优点就是构建RAID阵列非常廉价。目前IDE RAID可以支持RAID 0、RAID 1和RAID 0+1三个级别,最多支持4块IDE硬盘。由于受IDE设备扩展性的限制,同时,也由于IDE设备也缺乏热可替换的技术支持的原因,IDE RAID的应用还不多。

总之,发展是永恒的主题,在服务器存储技术领域也不例外。一方面,一些巨头厂商尝试推出新的概念或标准,来领导服务器及存储技术的发展方向,较有代表性的如Intel力推的IA-64架构及存储概念;另一方面,致力于存储的专业厂商以现有技术和工业标准为基础,推动SCSI、RAID、Fibre Channel等基于现有存储技术和方案快速更新和发展。在市场经济条件下,检验技术发展的唯一标准是市场的认同。市场呼唤好的技术,而新的技术必须起到推动市场向前发展作用时才能被广泛接受和承认。随着高性能计算机市场的发展,高性能比、高可靠性、高安全性的存储新技术也会不断涌现。

现在市场上的磁盘阵列产品有很多,用户在选择磁盘阵列产品的过程中,也要根据自己的需求来进行选择,现在列举几个磁盘阵列产品,同时也为需要磁盘阵列产品的用户提供一些选择。表2列出了几种磁盘阵列的主要技术指标。

--------------------------------------------------------------------------------

小知识:磁盘阵列的可靠性和可用性

可靠性,指的是硬盘在给定条件下发生故障的概率。可用性,指的是硬盘在某种用途中可能用的时间。磁盘阵列可以改善硬盘系统的可靠性。从表3中可以看到RAID硬盘子系统与单个硬盘子系统的可靠性比较。

此外,在系统的可用性方面,单一硬盘系统的可用性比没有数据冗余的磁盘阵列要好,而冗余磁盘阵列的可用性比单个硬盘要好得多。这是因为冗余磁盘阵列允许单个硬盘出错,而继续正常工作;一个硬盘故障后的系统恢复时间也大大缩短(与从磁带恢复数据相比);冗余磁盘阵列发生故障时,硬盘上的数据是故障当时的数据,替换后的硬盘也将包含故障时的数据。但是,要得到完全的容错性能,计算机硬盘子系统的其它部件也必须有冗余。

因为每个应用环境都是不同的,即使在一个地方表现良好,那也不能保证在其他地方同样合适。 对于服务器虚拟化环境来说,光纤通道存储是比较传统的选择。但现在iSCSI和NAS的普及程度也越来越高,毕竟它们的性价比更加突出。下面本文就来看看每一种网络存储技术的规格特性,并逐一分析它们的优势和不足。 光纤通道存储 单从性能和可靠性的角度看,光纤通道无疑是出色的存储架构,其它产品很难与之PK但凡事都有两面性,使用光纤通道存储的确获得了高性能,可用户却不得不承担更高的成本,以及面对更复杂的技术架构。不过,光纤通道技术在数据中心领域的应用历史很长,基础非常好,因此比较大的虚拟化环境通常都倾向于选择光纤通道,这些用户主要还是考虑速度和可靠性的因素(光纤通道当前的带宽是8 Gbps,下一代是16 Gbps)。另外,光纤通道存储网络一直是相对独立的,因此与基于以太网的存储设备相比安全性更好。可问题是,光纤通道需要特殊的HBA主机适配器、特殊的交换机,而且这些配件比以太网络使用的同类配件更加昂贵。 客观的说,如果要从零开始构建一个光纤通道网络代价是很高的。除此之外,光纤通道环境的部署和管理也更复杂,与传统网络架构相比,它配置起来难度很大,熟悉此项技术的人才也偏少。当前,很多公司都有技术熟练的网络管理员,但其中却很少有光纤通道存储网络方面的管理人才。设计并管理一个SAN架构通常需要经过特殊的培训,这无形中又进一步增加了实施的费用。 光纤通道存储的优势: FC是部署企业级存储架构的首选,而且许多应用环境本身就已经在使用SAN了; 由于具有更高的可用带宽,通常情况下性能表现最好; 独立的光纤通道网络更安全;还有LUN zoning和LUN masking等访问控制机制; 支持boot from SAN(从存储启动系统),服务器本地不再需要硬盘; 基于block的块存储类型,可以使用VMware vSphere自带的VMFS卷(一种文件系统)。 光纤通道存储的不足: 从零开始构建的话,部署成本会很高; 需要特殊的、昂贵的配件,比如交换机、线缆和HBA卡; 实施和管理也许更复杂,通常需要专职的存储管理员; 可用的安全控制功能较少,实现认证和加密比较复杂。 如果用户的物理服务器上准备运行多个虚拟机,且应用类型对磁盘I/O有较高的要求,那么为了得到最佳的性能,用户或许应该认真考虑使用光纤通道存储系统。此外,FCoE也是一个选择,它相当于在传统的以太网设备上承载光纤通道协议。但目前FCoE必须部署在同样昂贵的10 Gbps以太网环境,需要特殊的交换设备。 如果用户的应用环境中已经有了FC SAN,那么在构建虚拟化平台时使用光纤通道储存是很合适的。扩展一个已有的SAN环境很容易,而且比部署一个全新的环境要便宜许多。如果用户的预算充足,而且有管理复杂环境的技术能力,那么选择光纤通道存储一定没错。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13197870.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-19
下一篇 2023-06-19

发表评论

登录后才能评论

评论列表(0条)

保存