pacs 机房 验收标准、服务器验收标准、存储验收标准、硬件验收标准,总之关于paca 所有的验收标准都需。

pacs 机房 验收标准、服务器验收标准、存储验收标准、硬件验收标准,总之关于paca 所有的验收标准都需。,第1张

结构层次
(一) 物理层次
从物理层次结构上,PACS可以分为4层:网络用户层、接入层、核
PACS应用层次结构示意图
PACS应用层次结构示意图
心层、资源提供层,自下而上构成一个"金字塔"结构。其中:网络用户层是网络中的众多的终端或工作站;接入层是指与网络用户层中的终端或工作站相连接,为这些终端或工作站进行网络互联的网络设备集合(如二级交换机、集线器等);核心层是指将接入层网络设备汇集起来,形成全网互联的网络设备的集合,如(服务器、路由器、防火墙等);资源提供层是指PACS网络中的众多的医疗器械终端,如(CT、US、DR等)。
(二) 应用层次
从应用层次结构上,PACS可以分为3层:MINI-PACS、科室
PACS应用层次结构示意图
PACS应用层次结构示意图
级PACS、全院级PACS,自内而外构成一个"内嵌型"结构。其中:MINI-PACS是指针对小型医疗院所或单一科室规划的系统,MINI-PACS系统也必须包含超声波、内窥镜等图文并茂的专业影像报告系统;科室级PACS是指针对中型医院所提出的科室架构,紧密整合院方已有的HIS/RIS系统 ,建立以患者为中心的科室影像中心;全院级PACS主要是针对大型医院所提出的全院性架构,完全实现全院影像科室数字化读片诊断工作流程、实现全院影像科室电子化管理。
工作流程
现有主流PACS厂商,在研发PACS系统之初,都遵从了以下标准流程。
PACS业务流程图
PACS业务流程图
(一) 检查信息登记输入
前台登记工作站录入患者基本信息及检查申请信息,也可通过检索HIS系统(如果存在HIS并与PACS/RIS融合)进行病人信息自动录入,并对病人进行分诊登记、复诊登记、申请单扫描、申请单打印、分诊安排等工作。
(二) WorkList服务
病人信息一经录入,其他工作站可直接从PACS系统主数据库中自动调用,无需重新手动录入;具有WorkList服务的医疗影像设备可直接由服务器提取相关病人基本信息列表,不具备WorkList功能影像设备通过医疗影像设备 *** 作台输入病人信息资料或通过分诊台提取登记信息。
(三) 影像获取
对于标准 DICOM 设备,采集工作站可在检查完成后或检查过程中自动 ( 或手动 ) 将影像转发至PACS主服务器。
(四) 非DICOM转换
对于非DICOM设备,采集工作站可使用MiVideo DICOM网关收到登记信息后,在检查过程中进行影像采集,采集的影像自动(或由设备 *** 作技师手动转发)转发至PACS主服务器。
(五) 图像调阅
患者在检查室完成影像检查后,医师可通过阅片室的网络进行影像调阅、浏览及处理,并可进行胶片打印输出后交付患者。
需要调阅影像时PACS系统自动按照后台设定路径从主服务器磁盘阵列或与之连接的前置服务器中调用。
在图像显示界面,医师一般可以进行一些测量长度、角度、面积等图像后处理,在主流PACS中,除了测量功能外,都会提供缩放、移动、镜像、反相、旋转、滤波、锐化、伪彩、播放、窗宽窗位调节等图像后处理功能。
(六) 报告编辑
患者完成影像检查后由专业人员对影像质量进行评审,并进行质量分析。完成质量评审控制后的影像,诊断医生可进行影像诊断报告编辑,并根据诊断医师权限,分别进行初诊报告、报告审核工作。在书写报告过程中,可使用诊断常用词语模版,以减少医生键盘输入工作量。诊断报告审核过程中可对修改内容进行修改痕迹保留、可获得临床诊断、详细病史、历史诊断等信息、可将报告存储为典型病例供其它类似诊断使用,供整个科室内学习提高使用。
审核完成的报告通过打印机进行输出后由医师签字后提交,同时诊断报告上传至主服务器存储备份。打印完成后的报告不能再进行修改,但可以只读方式调阅参考。
6架构数据
存储技术架构
PACS有别于HIS、LIS等其它医学信息系统的最重要一点就是:海量数据存储。合理设计PACS的数据存储结构,是成功建设PACS的关键。一个大型的医院拥有大批现代化的大型医疗影像设备,每天影像检查产生的数据量多达4个GB左右(未压缩的原始数据),一年数据总量多约(1200GB)。而随着医院的业务飞速发展和新的影像设备的引进,这一数据量还可能进一步增长。此外,如何提高在线数据随机存取的效率也是一个非常关键的问题。
基于这一原因,现有的PACS医疗影像信息系统提供商多采用分级存储(HSM)的策略,将PACS存储分成在线存储和离线存储两级结构。用两种不同性能的存储介质来分别完成高容量和高效率的要求,低速超大容量存储设备(离线存储服务器)用作永久存储;高速存储设备(SAN)用作在线数据存储,确保在线数据的极高效存取。对于2年以上的历史数据保存在离线存储设备里,在线存储设备仅保存最近三年的数据。
文件格式
DICOM文件是指按照DICOM标准而存储的医学文件。
DICOM文件由多个数据集组成。数据集表现了现实世界信息对象的相关属性,如病人姓名、性别、身高和体重等。数据集由数据元素组成,数据元素包含进行编 码的信息对象属性的值,并由数据元素标签(Tag)唯一标识。数据元素具有三种结构,其中两种具有类型表示VR(是否出现由传输语法决定),差别在于其长 度的表达方式,另外一种不包括类型表示。类型表示指明了该数据元素中的数据是哪种类型,它是一个长度为2的字符串,例如一个数据元素的VR为FL,表示该数据元素中存储的数据类型为浮点型。所有数据元素都包含标签、值长度和数据值体。
标签是一个16位无符号整数对,按顺序排列包括组号和元素号。数据集中的数据元素应按数据元素标签号的递增顺序组织,且在一个数据集中最多出现一次。
值长度是一个16或32位(取决于显式VR或隐式VR)无符号整数,表明了准确的数据值的长度,按字节数目(为偶数)记录。此长度不包含数据元素标签、VR、值长度字段。
数据值体表明了数据元素的值,其长度为偶数字节,该字段的数据类型是由数据元素的VR所明确定义。数据元素字段由三个公共字段和一个可选字段组成。
数据结构
以现广东市场上的主流SUPER PACS系统为例。
目前SUPER PACS系统数据库共有36个表,按用途分为:公用表、数字胶片室专用表、放射专用表、超声专用表、远程专用表。其中起到关键性作用的是Patient、Study、Series、Image四个主表。
Patient表用于存放病人的基本信息,应用范围涉及到SUPER PACS的所有子系统;Study表用于存放病人的检查信息,应用范围涉及到SUPER PACS的所有子系统;Series表用于图象序列表的生成,应用范围涉及到SUPERPACSR DICOM放射系统;Image表用于保存系统图象记录。

RDF是Resource Description Framework的缩写,即资源描述框架。
RDF是一个处理元数据的XML应用,所谓元数据,就是“描述数据的数据”或者“描述信息的信息”。也许这样解释元数据有些令人难以理解,举个简单的例子,书的内容是书的数据,而作者的名字、出版社的地址或版权信息就是书的元数据。数据和元数据的划分不是绝对的,有些数据既可以作为数据处理,也可以作为元数据处理,例如可以将作者的名字作为数据而不是元数据处理。
众所周知,对资源的描述是领域和应用相关的,比如对一本书的描述和对一个Web站点的描述是不一样的,即对不同资源的描述需要采取不同的词汇表。因此RDF规范并没有定义描述资源所用的词汇表,而是定义了一些规则,这些规则是各领域和应用定义用于描述资源的词汇表时必须遵循的。当然,RDF也提供了描述资源时具有基础性的词汇表。
通过RDF,人们可以使用自己的词汇表描述任何资源,但人们更乐意将它用于描述Web站点和页面,由于使用的是结构化的XML数据,搜索引擎可以理解元数据的精确含义,使得搜索变得更为智能和准确,完全可以避免当前搜索引擎经常返回无关数据的情况。当然前提是RDF和标准化的RDF词汇表在Web上广泛使用,而且搜索引擎需要能够理解使用的词汇表。
简单而言,一个RDF文件包含多个资源描述,而一个资源描述是由多个语句构成,一个语句是由资源、属性类型、属性值构成的三元体,表示资源具有的一个属性。资源描述中的语句可以对应于自然语言的语句,资源对应于自然语言中的主语,属性类型对应于谓语,属性值对应于宾语。由于自然语言的语句可以是被动句,因此前面的简单对应仅仅是一个概念上的类比。

文 | 翟周伟
本文节选自《Hadoop核心技术》一书。
Hadoop是一个开源的高效云计算基础架构平台,其不仅仅在云计算领域用途广泛,还可以支撑搜索引擎服务,作为搜索引擎底层的基础架构系统,同时在海量数据处理、数据挖掘、机器学习、科学计算等领域都越来越受到青睐。本文将讲述国内外的hadoop应用现状。
国外Hadoop的应用现状
1Yahoo
Yahoo是Hadoop的最大支持者,截至2012年,Yahoo的Hadoop机器总节点数目超过42000个,有超过10万的核心CPU在运行Hadoop。最大的一个单Master节点集群有4500个节点(每个节点双路4核心CPUboxesw,4×1TB磁盘,16GBRAM)。总的集群存储容量大于350PB,每月提交的作业数目超过1000万个,在Pig中超过60%的Hadoop作业是使用Pig编写提交的。
Yahoo的Hadoop应用主要包括以下几个方面:
支持广告系统
用户行为分析
支持Web搜索
反垃圾邮件系统
会员反滥用
内容敏捷
个性化推荐
同时Pig研究并测试支持超大规模节点集群的Hadoop系统。
2Facebook
Facebook使用Hadoop存储内部日志与多维数据,并以此作为报告、分析和机器学习的数据源。目前Hadoop集群的机器节点超过1400台,共计11200个核心CPU,超过15PB原始存储容量,每个商用机器节点配置了8核CPU,12TB数据存储,主要使用StreamingAPI和JavaAPI编程接口。Facebook同时在Hadoop基础上建立了一个名为Hive的高级数据仓库框架,Hive已经正式成为基于Hadoop的Apache一级项目。此外,还开发了HDFS上的FUSE实现。
3A9com
A9com为Amazon使用Hadoop构建了商品搜索索引,主要使用StreamingAPI以及C++、Perl和Python工具,同时使用Java和StreamingAPI分析处理每日数以百万计的会话。A9com为Amazon构建的索引服务运行在100节点左右的Hadoop集群上。
4Adobe
Adobe主要使用Hadoop及HBase,同于支撑社会服务计算,以及结构化的数据存储和处理。大约有超过30个节点的Hadoop-HBase生产集群。Adobe将数据直接持续地存储在HBase中,并以HBase作为数据源运行MapReduce作业处理,然后将其运行结果直接存到HBase或外部系统。Adobe在2008年10月就已经将Hadoop和HBase应用于生产集群。
5CbIR
自2008年4月以来,日本的CbIR(Content-basedInformationRetrieval)公司在AmazonEC2上使用Hadoop来构建图像处理环境,用于图像产品推荐系统。使用Hadoop环境生成源数据库,便于Web应用对其快速访问,同时使用Hadoop分析用户行为的相似性。
6Datagraph
Datagraph主要使用Hadoop批量处理大量的RDF数据集,尤其是利用Hadoop对RDF数据建立索引。Datagraph也使用Hadoop为客户执行长时间运行的离线SPARQL查询。Datagraph是使用AmazonS3和Cassandra存储RDF数据输入和输出文件的,并已经开发了一个基于MapReduce处理RDF数据的Ruby框架——RDFgrid。
Datagraph主要使用Ruby、RDFrb以及自己开发的RDFgrid框架来处理RDF数据,主要使用HadoopStreaming接口。
7EBay
单集群超过532节点集群,单节点8核心CPU,容量超过53PB存储。大量使用的MapReduce的Java接口、Pig、Hive来处理大规模的数据,还使用HBase进行搜索优化和研究。
8IBM
IBM蓝云也利用Hadoop来构建云基础设施。IBM蓝云使用的技术包括:Xen和PowerVM虚拟化的Linux *** 作系统映像及Hadoop并行工作量调度,并发布了自己的Hadoop发行版及大数据解决方案。
9LastFm
LastFm主要用于图表计算、专利申报、日志分析、A/B测试、数据集合并等,也使用Hadoop对超过百万的曲目进行大规模的音频特征分析。
节点超过100台机器,集群节点配置双四核XeonL5520@227GHzL5630@213GHz,24GB内存,8TB(4×2TB)存储。
10LinkedIn
LinkedIn有多种硬件配置的Hadoop集群,主要集群配置如下:
800节点集群,基于Westmere的惠普SL170X与2×4的核心,24GB内存,6×2TBSATA。
1900节点集群,基于Westmere的超微-HX8DTT,与2×6的核心,24GB内存,6×2TBSATA。
1400节点集群,基于SandyBridge超微与2×6的核心,32GB内存,6×2TBSATA。
使用的软件如下:
*** 作系统使用RHEL63。
JDK使用SUNJDK160_32。
Apache的Hadoop0202的补丁和ApacheHadoop的104补丁。
Azkaban和Azkaban用于作业调度。
Hive、Avro、Kafka等。
11MobileAnalyticTV
主要使用Hadoop应用在并行化算法领域,涉及的MapReduce应用算法如下。
信息检索和分析。
机器生成的内容——文档、文本、音频、视频。
自然语言处理。
项目组合包括:
移动社交网络。
网络爬虫。
文本到语音转化。
音频和视频自动生成。
12Openstat
主要利用Hadoop定制一个网络日志分析并生成报告,其生产环境下超过50个节点集群(双路四核Xeon处理器,16GB的RAM,4~6硬盘驱动器),还有两个相对小的集群用于个性化分析,每天处理约500万的事件,每月15亿美元的交易数据,集群每天产生大约25GB的报告。
使用的技术主要包括:CDH、Cascading、Janino。
13Quantcast
3000个CPU核心,3500TB存储,每日处理1PB以上的数据,使用完全自定义的数据路径和排序器的Hadoop调度器,对KFS文件系统有突出贡献。
14Rapleaf
超过80个节点的集群(每个节点有2个双核CPU,2TB×8存储,16GBRAM内存);主要使用Hadoop、Hive处理Web上关联到个人的数据,并引入Cascading简化数据流穿过各种处理阶段。
15WorldLingo
硬件上超过44台服务器(每台有2个双核CPU,2TB存储,8GB内存),每台服务器均运行Xen,启动一个虚拟机实例运行Hadoop/HBase,再启动一个虚拟机实例运行Web或应用程序服务器,即有88台可用的虚拟机;运行两套独立的Hadoop/HBase机群,它们各自拥有22个节点。Hadoop主要用于运行HBase和MapReduce作业,扫描HBase的数据表,执行特定的任务。HBase作为一种可扩展的、快速的存储后端,用于保存数以百万的文档。目前存储了1200万篇文档,近期的目标是存储45亿篇文档。
16格拉斯哥大学的TerrierTeam
超过30个节点的实验集群(每节点配置XeonQuadCore24GHz,4GB内存,1TB存储)。使用Hadoop促进信息检索研究和试验,特别是用于TREC,用于TerrierIR平台。Terrier的开源发行版中包含了基于HadoopMapReduce的大规模分布式索引。
17内布拉斯加大学的HollandComputingCenter
运行一个中等规模的Hadoop机群(共计16PB存储)用于存储和提供物理数据,以支持紧凑型μ子螺旋型磁谱仪(CompactMuonSolenoid,CMS)实验的计算。这需要一类能够以几Gbps的速度下载数据,并以更高的速度处理数据的文件系统的支持。
18VisibleMeasures
将Hadoop作为可扩展数据流水线的一个组件,最终用于VisibleSuite等产品。使用Hadoop汇总、存储和分析与网络视频观众收看行为相关的数据流。目前的网格包括超过128个CPU核心,超过100TB的存储,并计划大幅扩容。
国内Hadoop的应用现状
Hadoop在国内的应用主要以互联网公司为主,下面主要介绍大规模使用Hadoop或研究Hadoop的公司。
1百度
百度在2006年就开始关注Hadoop并开始调研和使用,在2012年其总的集群规模达到近十个,单集群超过2800台机器节点,Hadoop机器总数有上万台机器,总的存储容量超过100PB,已经使用的超过74PB,每天提交的作业数目有数千个之多,每天的输入数据量已经超过7500TB,输出超过1700TB。
百度的Hadoop集群为整个公司的数据团队、大搜索团队、社区产品团队、广告团队,以及LBS团体提供统一的计算和存储服务,主要应用包括:
数据挖掘与分析。
日志分析平台。
数据仓库系统。
推荐引擎系统。
用户行为分析系统。
同时百度在Hadoop的基础上还开发了自己的日志分析平台、数据仓库系统,以及统一的C++编程接口,并对Hadoop进行深度改造,开发了HadoopC++扩展HCE系统。
2阿里巴巴
阿里巴巴的Hadoop集群截至2012年大约有3200台服务器,大约30000物理CPU核心,总内存100TB,总的存储容量超过60PB,每天的作业数目超过150000个,每天hivequery查询大于6000个,每天扫描数据量约为75PB,每天扫描文件数约为4亿,存储利用率大约为80%,CPU利用率平均为65%,峰值可以达到80%。阿里巴巴的Hadoop集群拥有150个用户组、4500个集群用户,为淘宝、天猫、一淘、聚划算、CBU、支付宝提供底层的基础计算和存储服务,主要应用包括:
数据平台系统。
搜索支撑。
广告系统。
数据魔方。
量子统计。
淘数据。
推荐引擎系统。
搜索排行榜。
为了便于开发,其还开发了WebIDE继承开发环境,使用的相关系统包括:Hive、Pig、Mahout、Hbase等。
3腾讯
腾讯也是使用Hadoop最早的中国互联网公司之一,截至2012年年底,腾讯的Hadoop集群机器总量超过5000台,最大单集群约为2000个节点,并利用Hadoop-Hive构建了自己的数据仓库系统TDW,同时还开发了自己的TDW-IDE基础开发环境。腾讯的Hadoop为腾讯各个产品线提供基础云计算和云存储服务,其支持以下产品:
腾讯社交广告平台。
搜搜(SOSO)。
拍拍网。
腾讯微博。
腾讯罗盘。
QQ会员。
腾讯游戏支撑。
QQ空间。
朋友网。
腾讯开放平台。
财付通。
手机QQ。
QQ音乐。
4奇虎360
奇虎360主要使用Hadoop-HBase作为其搜索引擎socom的底层网页存储架构系统,360搜索的网页可到千亿记录,数据量在PB级别。截至2012年年底,其HBase集群规模超过300节点,region个数大于10万个,使用的平台版本如下。
HBase版本:facebook089-fb。
HDFS版本:facebookHadoop-20。
奇虎360在Hadoop-HBase方面的工作主要为了优化减少HBase集群的启停时间,并优化减少RS异常退出后的恢复时间。
5华为
华为公司也是Hadoop主要做出贡献的公司之一,排在Google和Cisco的前面,华为对Hadoop的HA方案,以及HBase领域有深入研究,并已经向业界推出了自己的基于Hadoop的大数据解决方案。
6中国移动
中国移动于2010年5月正式推出大云BigCloud10,集群节点达到了1024。中国移动的大云基于Hadoop的MapReduce实现了分布式计算,并利用了HDFS来实现分布式存储,并开发了基于Hadoop的数据仓库系统HugeTable,并行数据挖掘工具集BC-PDM,以及并行数据抽取转化BC-ETL,对象存储系统BC-ONestd等系统,并开源了自己的BC-Hadoop版本。
中国移动主要在电信领域应用Hadoop,其规划的应用领域包括:
经分KPI集中运算。
经分系统ETL/DM。
结算系统。
信令系统。
云计算资源池系统。
物联网应用系统。
E-mail。
IDC服务等。
7盘古搜索
盘古搜索(目前已和即刻搜索合并为中国搜索)主要使用Hadoop集群作为搜索引擎的基础架构支撑系统,截至2013年年初,集群中机器数量总计超过380台,存储总量总计366PB,主要包括的应用如下。
网页存储。
网页解析。
建索引。
Pagerank计算。
日志统计分析。
推荐引擎等。
即刻搜索(人民搜索)
即刻搜索(目前已与盘古搜索合并为中国搜索)也使用Hadoop作为其搜索引擎的支撑系统,截至2013年,其Hadoop集群规模总计超过500台节点,配置为双路6核心CPU,48G内存,11×2T存储,集群总容量超过10PB,使用率在78%左右,每天处理读取的数据量约为500TB,峰值大于1P,平均约为300TB。
即刻搜索在搜索引擎中使用sstable格式存储网页并直接将sstable文件存储在HDFS上面,主要使用HadoopPipes编程接口进行后续处理,也使用Streaming接口处理数据,主要的应用包括:
网页存储。
解析。
建索引。
推荐引擎。
end


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12783620.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-28
下一篇 2023-05-28

发表评论

登录后才能评论

评论列表(0条)

保存