以下表格记录了中国计算机发展历史:
1958年,中科院计算所研制成功我国第一台小型电子管通用计算机103机(八一型),标志着我国第一台电子计算机的诞生。
1965年,中科院计算所研制成功第一台大型晶体管计算机109乙,之后推出109丙机,该机为两d试验中发挥了重要作用;
1974年,清华大学等单位联合设计、研制成功采用集成电路的DJS-130小型计算机,运算速度达每秒100万次;
1983年,国防科技大学研制成功运算速度每秒上亿次的银河-I巨型机,这是我国高速计算机研制的一个重要里程碑;
1985年,电子工业部计算机管理局研制成功与IBM PC机兼容的长城0520CH微机。
1992年,国防科技大学研究出银河-II通用并行巨型机,峰值速度达每秒4亿次浮点运算(相当于每秒10亿次基本运算 *** 作),为共享主存储器的四处理机向量机,其向量中央处理机是采用中小规模集成电路自行设计的,总体上达到80年代中后期国际先进水平。它主要用于中期天气预报;
1993年,国家智能计算机研究开发中心(后成立北京市曙光计算机公司)研制成功曙光一号全对称共享存储多处理机,这是国内首次以基于超大规模集成电路的通用微处理器芯片和标准UNIX *** 作系统设计开发的并行计算机;
1995年,曙光公司又推出了国内第一台具有大规模并行处理机(MPP)结构的并行机曙光1000(含36个处理机),峰值速度每秒25亿次浮点运算,实际运算速度上了每秒10亿次浮点运算这一高性能台阶。曙光1000与美国Intel公司1990年推出的大规模并行机体系结构与实现技术相近,与国外的差距缩小到5年左右。
1997年,国防科大研制成功银河-III百亿次并行巨型计算机系统,采用可扩展分布共享存储并行处理体系结构,由130多个处理结点组成,峰值性能为每秒130亿次浮点运算,系统综合技术达到90年代中期国际先进水平。
1997至1999年,曙光公司先后在市场上推出具有机群结构(Cluster)的曙光1000A,曙光2000-I,曙光2000-II超级服务器,峰值计算速度已突破每秒1000亿次浮点运算,机器规模已超过160个处理机,
1999年,国家并行计算机工程技术研究中心研制的神威I计算机通过了国家级验收,并在国家气象中心投入运行。系统有384个运算处理单元,峰值运算速度达每秒3840亿次
2000年,曙光公司推出每秒3000亿次浮点运算的曙光3000超级服务器。
2001年,中科院计算所研制成功我国第一款通用CPU——“龙芯”芯片
2002年,曙光公司推出完全自主知识产权的“龙腾”服务器,龙腾服务器采用了“龙芯-1”CPU,采用了曙光公司和中科院计算所联合研发的服务器专用主板,采用曙光LINUX *** 作系统,该服务器是国内第一 全实现自有产权的产品,在国防、安全等部门将发挥重大作用。
2003年,百万亿次数据处理超级服务器曙光4000L通过国家验收,再一次刷新国产超级服务器的历史纪录,使得国产高性能产业再上新台阶。
2用简短的语言概括计算机发展史第一代计算机 :1946~1957年,电子管, 运算速度较低,耗电量大存储容量小;
第二代计算机 :1958 ~1964 年,晶体管, 体积小,耗电量较少,运算速度高,价格下降;
第三代计算机 :1965 ~1971年, 中小规模集成电路 ,体积功能进一步减少,可靠性及速度进一步提高;
第四代计算机 :1972年至今 ,大规模及超大规模集成电路 ,性能到规模提高,价格大幅度降低,广泛应用于社会生活的各个领域,走进办公室和家庭。
3计算机的发展历史是什么计算工具的演化经历了由简单到复杂、从低级到高级的不同阶段,例如从“结绳记事”中的绳结到算筹、算盘计算尺、机械计算机等。
它们在不同的历史时期发挥了各自的历史作用,同时也启发了现代电子计算机的研制思想。 1889年,美国科学家赫尔曼·何乐礼研制出以电力为基础的电动制表机,用以储存计算资料。
1930年,美国科学家范内瓦·布什造出世界上首台模拟电子计算机。 1946年2月14日,由美国军方定制的世界上第一台电子计算机“电子数字积分计算机”(ENIAC Electronic Numerical And Calculator)在美国宾夕法尼亚大学问世了。
ENIAC(中文名:埃尼阿克)是美国奥伯丁武器试验场为了满足计算d道需要而研制成的,这台计算器使用了17840支电子管,大小为80英尺8英尺,重达28t(吨),功耗为170kW,其运算速度为每秒5000次的加法运算,造价约为487000美元。 ENIAC的问世具有划时代的意义,表明电子计算机时代的到来。
在以后60多年里,计算机技术以惊人的速度发展,没有任何一门技术的性能价格比能在30年内增长6个数量级。 。
4计算机的发展史楼上的你“辛苦”了,1946年美国宾夕法尼亚大学为了d道设计的需要设计了世界上第一台数字电子计算机。
它的运算速度不高,却是一个庞然大物――――18000个电子管、1500个继电器、占地300平方米、重30吨、消耗功率为50KW、价值48万美元。虽然它既大又贵,但却是现在各种计算机的先驱,为发展至今的数字电子计算机奠定了基础。
自第一台计算机问世以来,随着电子器件的不断发展、更新,计算机的发展日新月异,至今已发展了四代。 一般来说,电子计算机发展历程的各个阶段,是以所采用的电子器件的不同来划分的,即电子管、晶体管、中小规模集成电路和大规模及超大规模集成电路计算机。
微型计算机属于第四代电子计算机产品,即大规模及超大规模集成电路计算机,是集成电路技术不断发展,芯片集成度不断提高的产物。 年代 基本器件 应用范围 1946――1958 电子管 科研院校进行科学运算 1958――1964 晶体管 工矿企业、机关事务进行数据处理工业控制 1964――1971 集成电路 出现了小型机 1971――今 LSI、VLSI 深入到社会的各个领域,出现了微机 三、微机的发展史 微机的发展与LSI紧密相连。
自1971年第一台计算机(INTEL4004)问世以来微机的发展突飞猛进。微机系统的核心部件为CPU,因此我们主要以CPU的发展、演变过程为线索,来介绍微机系统的发展过程,主要以Intel公司的CPU为主线。
第一代:4位及低档8位微处理器 ² 1971年,Intel公司推出第一片4位微处理器Intel4004,以其为核心组成了一台高级袖珍计算机。随后出现的Intel4040,是第一片通用的4位微处理器。
² 1972年,Intel8008,8位,集成度约2000管/片,时钟频率1MHz。 第二代:中、低档8位微处理器 ² 1973年~1974年,Intel8008、M6800、Rockwell6502,8位,集成度5000管/片,时钟频率2~4MHz。
这一时期,微处理器的设计和生产技术已经相当成熟,组成微机系统的其它部件也愈来愈齐全,系统朝着提高集成度、提高功能与速度,减少组成系统所需的芯片数量的方向发展。 第三代:高、中档8位微处理器 ² 1975年~1976年,Z-80,Intel8085,8位,时钟频率2~4MHz,集成度约10000管/片,还出现了一系列单片机。
第四代:16及低档32位微处理器 ² 1978年,Intel首次推出16位处理器8086(时钟频率达到4~8MHz),8086的内部和外部数据总线都是16位,地址总线为20位,可直接访问1MB内 存单元。 ² 1979年,Intel又推出8086的姊妹芯片8088(时钟频率达到48MHz),集成度达到2万~6万管/片。
它与8086不同的是外部数据总线为8位(地址线为20位)。 ² 1982年,Intel推出了80286(时钟频率为10MHz),该芯片仍然为16位结构,但地址总线扩展到24位,可访问16MB内存,其工作频率也较8086提高了许多。
80286向后兼容8086的指令集和工作模式(实模式),并增加了部分新指令和一种新的工作模式——保护模式。 ² 1985年,Intel又推出了32位处理器80386(时钟频率为20MHZ),该芯片的内外部数据线及地址总线都是32位,可访问4GB内存,并支持分页机制。
除了实模式和保护模式外,80386又增加了一种“虚拟8086”的工作模式,可以在 *** 作系统控制下模拟多个8086同时工作。 ² 1989年推出了80486(时钟频率为30~40MHz),集成度达到15万~50万管/片(168个脚),甚至上百万管/片,因此被称为超级微型机。
早期的80486相当于把80386和完成浮点运算的数学协处理器80387以及8kB的高速缓存集成到一起,这种片内高速缓存称为一级(L1)缓存,80486还支持主板上的二级(L2)缓存。后期推出的80486 DX2首次引入了倍频的概念,有效缓解了外部设备的制造工艺跟不上CPU主频发展速度的矛盾。
第五代:高档32位微处理器 ² 1993年,Intel公司推出了新一代高性能处理器Pentium(奔腾),Pentium最大的改进是它拥有超标量结构(支持在一个时钟周期内执行一至多条指令),且一级缓存的容量增加到了16kB,这些改进大大提升了CPU的性能。
5试说计算机的发展历史的未来趋势计算机的关键技术继续发展
未来的计算机技术将向超高速、超小型、平行处理、智能化的方向发展。尽管受到物理极限的约束,采用硅芯片的计算机的核心部件CPU的性能还会持续增长。作为Moore定律驱动下成功企业的典范Inter预计2001年推出1亿个晶体管的微处理器,并预计在2010年推出集成10亿个晶体管的微处理器,其性能为10万MIPS(1000亿条指令/秒)。而每秒100万亿次的超级计算机将出现在本世纪初出现。超高速计算机将采用平行处理技术,使计算机系统同时执行多条指令或同时对多个数据进行处理,这是改进计算机结构、提高计算机运行速度的关键技术。
同时计算机将具备更多的智能成分,它将具有多种感知能力、一定的思考与判断能力及一定的自然语言能力。除了提供自然的输入手段(如语音输入、手写输入)外,让人能产生身临其境感觉的各种交互设备已经出现,虚拟现实技术是这一领域发展的集中体现。
传统的磁存储、光盘存储容量继续攀升,新的海量存储技术趋于成熟,新型的存储器每立方厘米存储容量可达10TB(以一本书30万字计,它可存储约1500万本书)。信息的永久存储也将成为现实,千年存储器正在研制中,这样的存储器可以抗干扰、抗高温、防震、防水、防腐蚀。如是,今日的大量文献可以原汁原味保存、并流芳百世。
6计算机网络的发展历史第一节 计算机网络的发展历史
计算机网络仅有几十年的发展历史,经历了从简单到复杂、从低级到高级、从地区到全球的发展过程。从应用领域上看,这个过程大致可划分为四个阶段:
1、具有通信功能的单机系统
六十年代:大型主机
2、具有通信功能的多机系统
3、计算机通信网络和计算机网络
八十年代:PC机,局域网技术蓬勃发展
4、计算机网络已经成为全球信息产业的基础。
九十年代:信息时代,信息高速公路,Inter
能够管理KVM的工具很多。首先是单个资源的基础虚拟化管理,有开源的虚拟化工具集libvirt,通过命令行接口提供安全的远程管理,可管理单个系统。
然后是管理全部运行KVM的多个服务器,有两种:用Red Hat Enterprise Virtualization-Management,即RHEV-M(管理多个RHEV-H系统)和IBM Systems Director VMControl(管理多个RHEL系统)。
最后有Tivoli产品。包括Tivoli Provisioning Manager、Tivoli Service Automation Manager与Tivoli Monitoring for Virtual Servers。
IBM Systems Director VMControl
IBM Systems Director VMControl既能实现异构多平台管理,也能实现异构多系统管理。VMControl是IBM平台管理方案Systems Director的一部分,覆盖了虚拟化管理三个关键领域:虚拟化、管理与自动化。VMControl也可作为独立的产品插件使用。
前不久,IBM发布了新版VMControl 24,可管理KVM与其他hypervisor。VMControl即能管理物理资源也能管理虚拟资源,还能管理异构hypervisor。用户在现有运行VMware的环境中再安装KVM,管理也无压力。
VMControl 24允许跨平台跨hypervisor的镜像管理,降低了复杂性、提升了生产效率。该软件目前支持IBM PowerVM、z/VM VMware、Microsoft Xen 与KVM服务器虚拟机技术。主要分为三个版本: VMControl Express Edition:轻松管理虚拟机。发现虚拟化资源,了解系统运作情况,并能虚拟工作负载。包括查看、创建、修改与删除虚拟机;开启、停止与迁移虚拟机,以及管理多hypervisor。 VMControl Standard Edition:侧重管理虚拟机镜像。添加对虚拟镜像库的完整支持,包括创建、捕捉、输入和部署镜像。自动化资源配置并能移动资源。 VMControl Enterprise Edition:自动化工作负载配置。创建并启用系统池管理,自动移动工作负载,完全支持KVM。 Tivoli产品系列
Tivoli是IBM Systems Director与VMControl的有益补充。提供高级别的端到端管理功能。主要的Tivoli产品已经能够支持KVM。Tivoli重要功能有如下三个: IBM Tivoli Monitoring:通过对候选虚拟化服务器历史趋势的分析,作出整合级别的优先次序。此外,让用户对系统事件作出最佳反应。 Tivoli Provisioning Manager:为物理与虚拟软硬件提供端到端的自动功能。包括发现并追踪虚拟资源、同时创建上百台虚拟机,以及自动为Linux服务器配置软件。 Tivoli Service Automation Manager:自动请求、部署、监控并管理云计算服务。通过自动化与对技能需求的降低,减少了服务交付成本,同时交付了高度标准化的IT服务,节省了IT管理员时间去完成高价值任务。 RHEV-M
RHEV-M(Red Hat Enterprise Virtualization-Management)使用图形用户界面管理物理与逻辑资源。允许管理员查看并管理虚拟机及其镜像,还支持热迁移,配置高可用性集群。随着RHEV 30的发布,RHEV-M 30也已可用。
作为红帽虚拟化平台的核心组件,RHEV-M管理控制台还能运行虚拟机的主机节点。可将RHEV-H hypervisor或带有虚拟化授权的R红帽企业Linux服务器配置为节点。这两种类型的节点使用KVM作为底层的hypervisor。RHEV-H hypervisor是设置RHEV节点的默认选项,它是裸机hypervisor,只包含了运行虚拟机RHEL代码的一个子集。正因为如此,RHEV-H主机的维护更加容易。此外,这些主机需要较少的补丁和维护就能确保其安全性。
RHEV-H基础文件系统只有100多MB而且运行在内存中,这避免了对基础镜像的改变。专用的安全增强型Linux策略以及防火墙阻塞了所有流量,保证了RHEV-H节点的安全性。
RHEV管理器同样还支持运行KVM的RHEL主机。这一特性使在现有RHEL环境中部署RHEV更加容易。
此外,还有很多开源工具可以管理KVM。比如,IBM、红帽等厂商加入到oVirt,这个开源虚拟化项目提供功能丰富的服务器虚拟化管理系统,为主机和子机提供高级功能,包括高可用性热迁移存储管理系统调度等。
伴随服务器概念的诞生,小组服务器就是其中重要的一支发展力量,无论是在486处理器刚刚诞生的年月,还是今天P4 CPU流行的日子,小组服务器(单路服务器)凭借出色的性能价格比,牢牢占据了低端服务器市场。它的使命也从最初NetWare系统下纯粹的文件共享服务上升到复杂服务供应体,文件、打印、邮件、代理、数据库等中小企业用户可能用的都成为小组服务器提供的项目。
I/O进步
文件服务器是最经典的服务器之一,经历了历史的发展,它并没有被所谓的FTP、数据库等服务器所代替,反而借助 *** 作系统的支持,焕发了新的魅力。在NetWare年代,一台486处理器的服务器,配备一块10M网卡,就能给超过100个用户提供出色的文件服务性能,可是在Windows年代,动辄数百兆的数据已经将100M网络的小组文件服务器逼上“梁山”,虽然处理器的频率成百倍的提升,可千兆网络环境却成为小组服务器永远的痛。
因为在小组服务器的发展史上,一直出于降低价格的目的进行研发,那些“真正”拥有服务器完善 I/O系统的芯片组,产品高高在上的价格限制了他们“小组化”的步伐;基于台式机系统进行开发的小组服务器先天不足,根本无法提供完善的I/O系统。千兆网络、高性能存储只能是一个美丽的肥皂泡。好在Intel迅速认识到这一点,借助新一代处理器的推出,将i875P芯片组推上了小组服务器/工作站的位置,它凭借独立CSA通道和Serial ATA RAID系统,终于克服了小组服务器徘徊已久的障碍,I/O系统中的关键环节——千兆网络环境和高性能存储。
解决了小组服务器存储和传输通道上的障碍,新一代的小组服务器在文件、打印等服务中已经比上一代的小组服务器有了质的进步。
计算能力的进步
虽然邮件、数据库等应用是近年来才逐渐在小组服务器上得到应用,但是发展势头之猛烈,是当初小组服务器诞生之初无法想象的。他们有效地利用了小组服务器日渐高涨的产品性能,充分发掘了应用的本质。
我们都知道,影响服务器整体处理能力的原因是多方面的,一味提升处理器的主频并不能给用户带来最终性能提升的感觉,特别是针对那些并发进程多,单一进程尺寸小,但是需要服务器根据进程的需求运行查询、排序、记录、反馈等多种任务。其实从这一系列的动作里,我们看到了数据提交到网卡→内存→处理器→硬盘→处理器→内存→网卡的全部过程,这是服务器典型的工作状态,是我们经常谈到的服务器I/O体系。这时无论在哪一个环节出现了瓶颈效应,都会严重拖慢进程的脚步,早期的小组服务器和中高端服务器最大的差异也就在此。
而新的一代小组服务器已经向中高端服务器提出了挑战,从表中我们可以看出昨天的小组服务器、今天的小组服务器、今天的部门级服务器各个环节的差异。
从表中可以清楚地看到,新一代的P4服务器已经全面超越了早期的小组服务器,甚至在某些方面对部门级服务器也提出了强有力的挑战,在I/O性能上,我们已经看到了小组服务器高性能的身影。
殊路同归的管理
在中高端服务器领域,管理是一条必不可少的项目,无论是基于硬件体系的管理维护性设置,还是在网络上对服务器进行全面的监控,它已成为体现服务器水准的一个标志。可惜的是,因为不同厂商都是依照自身多年的发展,监控体系各自为政,而且多数是专有系统,自然成本高居不下。在价格拼刺刀的小组服务器中使用完善的监控管理技术似乎成为了一种奢望,这点在早期的产品中尤为明显。
但是在小组服务器中,因为Intel的大力支持和发展,几乎所有的主板厂商都开始采用Intel Heccta management controller技术,配合Intel网卡,可以对小组服务器也实现基本的监控功能。
低端技术的蔓延
高端服务器技术下嫁小组服务器还能让人理解,可是低端技术上攀的方式,恐怕也只有这个创新的年代才会出现。在存储领域,超过40根信号线的排线一直都是必不可少的,因为IDE硬盘需要40/80针的数据线,SCSI更需要68针的混编线才能提供超过SCSI 320的速率,这些宽宽的排线在服务器机箱里盘根错节,既不美观,也严重阻碍了散热。甚至在厂商那里,如何捆扎和布置排线都由服务器研发部门的专门小组来解决。
当Serial ATA来的时候,虽然是取代IDE的技术,但是它带来的串行化趋势却在中低端服务器领域引起了轩然大波,连接4块Serial ATA硬盘竟然只有细细的几根电缆,而且允许的长度也超过了40/80针的排线,因此在小组服务器里,我们也看到了整齐、漂亮的布线。而且Serial ATA硬盘背板技术得到了改进,可以配合独立背板技术实现热交换,热插拔SCSI的地位受到了冲击。
当Intel在推出ICH5南桥的时候,具有一个ICH5R版本,提供了SATA RAID on Chip技术,虽然不能说是完全的创新,毕竟SCSI RAID on Chip技术在前,可是廉价的成本为小组服务器提供RAID 0、1、0+1,在之前只能通过IDE RAID卡实现,而Serial ATA的扩展能力也非IDE可比,因此在全面占领小组服务器的基础上,一定能向上蔓延到部门级服务器中。
2003年9月,记录着小组服务器在《计算机世界》评测实验室的一次盛会,8位来自不同厂商的“选手”,给我们带来新一代小组服务器全面的精彩DCS的基本结构和PLC的区别
DCS为分散控制系统的英文(TOTAL DISTRIBUTED CONTROL SYSTEM)简称。指的是控制危险分散、管理和显示集中。60年代末有人研制了作逻辑运算的可编程序控制器(Programmable Logic Controller)。简称PLC。主要应用于汽车制造业。70年代中期以完成模拟量控制的DCS推向市场,代替以PID运算为主的模拟仪表控制。首先提出DCS这样一种思想的是原制造仪表的厂商,当时主要应用于化工行业。后又有计算机行业从事DCS的开发。
70年代微机技术还不成熟,计算机技术还不够发达。 *** 作站、控制器、I/O板和网络接口板等都是DCS生产厂家自行开发的,也就是所有部件都是专用的。
70年代初,有人用如PDP/1124这样的小型机代替原来的集中安装的模拟仪表控制。连接到中央控制室的电缆很多。如用小型机既作为控制器、同时把连接小型机的CRT又作为显示设备(即人机界面)。一台小型机需接收几千台变送器或别的传感器来的信号,完成几百个回路的运算。很显然其危险有点集中。和模拟仪表连接的电缆一样多,并且一旦小型机坏了,控制和显示都没有了。数字控制没有达到预期的目的。
后有人提出把控制和显示分开。一台计算机完成控制计算任务,另一台计算机完成显示任务。另外,一个工艺过程作为被控对象可能需要显示和控制的点很多,其中有一些还需要闭环控制或逻辑运算,工艺过程作为被控对象的各个部分会有相对独立性,可以分成若干个独立的工序,再把在计算机控制系统中独立的工序上需要显示和控制的输入、输出的点分配到数台计算机中去,把原来由一台小型机完成的运算任务由几台或几十台计算机(控制器)去完成。其中一台机器坏了不影响全局。所谓“狼群代替老虎”的战术,这就是危险分散的意思。把显示、 *** 作、打印等管理功能集中在一起,用网络把上述完成控制和显示的两部分连成一个系统。当时有人把这种系统称为集散系统。
危险究竟要分散到多少算合适呢?这与当时的计算机技术的发展水平有关。70年代中期,彻底分散就是一个控制器完成一个回路的运算。当时由于人们对数字技术不太熟息,习惯于模拟仪表,70年代末、80年代曾经风行回路控制器,把数字控制器做成和原来模拟仪表在外观上几乎完全一样,不改变 *** 作习惯,内部把PID运算数字化。一块仪表(一台计算机)完成一个回路的控制任务。其价格较为昂贵,但危险是分散了。然后用通讯网络把各个控制器和以CRT为基础的人机界面连成一个系统。这时网络结构通常都是星形结构。回路的控制器的制作成本太高,价格/性能比不好。后来为了减低成本,就有两回路的、四回路的控制器,它的价格/性能比稍好一些。对于一个大中型系统来说,DCS的价格/性能比比回路控制器组成的系统要好。有些特殊地方还是要用到一些回路控制器。
如果所要完成的回路太多,如一个控制器采集几千点、完成几百个回路的运算,危险又太集中。在这种情况下,危险必需分散。随着计算机技术的发展,计算机的运算能力、存储容量和可靠性不断提高,一台计算机所完成的任务也可以增加。完成的任务也可集中一点。另外,控制器、网络等冗余技术也得到了发展,控制运算也可集中一些。
从目前的DCS来看,一个控制器完成几十个回路的运算和几百点的采集、再加适量的逻辑运算,经现场使用,效果是比较好的。这就产生控制器升级的问题了。有时控制器和检测元件的距离还是比较远,这就促进现场总线的发展。如CAN、LOONWORKS、FF等现场总线,以及HART协议接收板等都用到DCS系统中。
DCS分为三大部分,带I/O板的控制器、通讯网络和人机界面(HMI)。由I/O板通过端子板直接与生产过程相连,读取传感器来的信号。I/O板有几种不同的类型,每一种I/O板都有相应的端子板。
l 模拟量输入,4-20毫安的标准信号板和用以读取热电偶的毫伏信号板;4-16个通道不等;
l 模拟量输出,通常都是4-20毫安的标准信号,一般它的通道比较少,4-8个个通道;
l 开关量输入;16-32个通道:
l 开关量输出,开关量输入和输出还分不同电压等级的板,如直流24伏、125伏;交流220伏或115伏等;8-16个通道不等;
l 脉冲量输入,用于采集速率的信号;4-8通道不等;
l 快速中断输入;
l HART协议输入板;
l 现场总线I/O板;
每一块I/O板都接在I/O总线上。为了信号的安全和完整,信号在进入I/O板以前信号要进行整修,如上下限的检查、温度补偿、滤波,这些工作可以在端子板完成,也可以分开完成,完成信号整修的板现在有人称它们为信号调理板。
I/O总线和控制器相连。80年代的DCS由于控制器的运算能力不强,为了增加I/O点数,把控制器的任务分开,实际上是有三种类型的控制器。即:完成闭环运算的控制器、模拟量数据采集器和逻辑运算器。它们分别有自己的I/O总线,各种DCS的I/O总线各不相同。如果要求快速,最好采用并行总线。一般采用串行总线比较多。尤其是RS485总线较多,模拟量数据采集器和逻辑运算器的I/O点数可以多一些。
闭环控制器、模拟量数据采集器和逻辑运算器可以和人机界面直接连在通讯网络上,在网络上的每一个不同的控制器作为网络上的一个独立结点。每一个结点完成不同的功能。它们都应有网络接口。有的DCS为了节省网络接口,把所有的过程控制用的设备即闭环控制器、模拟量数据采集器和逻辑运算器预先连在控制总线上,称为过程控制站。这可以增加过程控制站能接收的I/O点数,又能节省接口。然后再通过接口连到网络上,与人机界面相连。随着计算机计术的发展,控制器的运算能力不断增强,如PC机做的一个控制器能力很强,既可接收模拟量运算,也接收开关量逻辑运算。一个控制器成为网络上的一个结点。通过网络与人机界面相连。
控制器是DCS的核心部件,它相当于一台PC机。有的DCS的控制器本身就是PC机。它主要有CPU、RAM、E2PROM和ROM等芯片,还有两个接口,一个向下接收I/O总线来的信号,另一个接口是向上把信号送到网络上与人机界面相连。ROM用来存贮完成各种运算功能的控制算法(有的DCS称为功能块库)。在库中存功能块,如控制算法PID、带死区PID,积分分离PID,算术运算加、减、乘、除、平方、开方、函数运算一次滤波、正弦、余弦、X-Y函数发生器、超前-滞后;比较先进的算法有史密斯预估,C语言接口、矩阵加、矩阵乘;逻辑运算有逻辑与、逻辑或、逻辑非、逻辑与非等。通常用站功能块不仅把模拟量和开关量结合起来,还与人连系起来。功能块越多,用户编写应用程序(即组态)越方便。组态按照工艺要求,把功能块连接起来形成控制方案。把控制方案存在E2PROM中。因为E2PROM可以擦写,组态要随工艺改变而改变,所以把组态存在E2PROM中。不同用户有不同组态。组态时,用户从功能块库中选择要的功能块,填上参数,把功能块连接起来。形成控制方案存到E2PROM中。这时控制器在组态方式,投入运行后就成为运行方式
控制器中安装有 *** 作系统,功能块组态软件和通讯软件。
为了系统安全运行,闭环控制器一定是冗余运行的,一用一备,并且是热备。为了使冗余成功,应注意以下几点:两个控制器的硬件、软件版本必需一致;检查发送-接收的芯片是否完好;冗余的芯片是否完好。两个模件的设定是否一样、还要检查有没有带手 *** 站等。
通讯网络把过程站和人机界面连成一个系统。通讯网络有几种不同的结构行式。如总线式、环形和星形(见图)。总线形在逻辑上也是环形的。星形的只适用于小系统。不论是环形还是总线形,一般都采用广播式。其它一些协议方式已用的较少。通讯网络的速率在10M和100M左右。
人机界面有4种不同形式的结点,它们是 *** 作站、工程师工作站、历史趋势站和动态数据服务器。
u *** 作站安装有 *** 作系统、监控软件和控制器的驱动软件。显示系统的标签、动态流程图和报警信息。
u 工程师工作站给控制器组态(CAD),也可以给 *** 作站组态(作动态流程图)。如果监控软件作图能力很强,作图工作可以由监控软件独立完成。工程师站的另外一个功能是读控制器的组态,用于控制器升级,查找故障。我们称之为逆向工程师站。
u 历史趋势站用于存储历史数据,一般用磁盘阵列(称为RAID技术)。
u 动态数据服务器是DCS和MIS系统的接口,也是DCS和Web的隔离设备。
DCS和PLC的设计原理区别较大,PLC是由摸仿原继电器控制原理发展起来的,70年代的PLC只有开关量逻辑控制,首先应用的是汽车制造行业。它以存储执行逻辑运算、顺序控制、定时、计数和运算等 *** 作的指令;并通过数字输入和输出 *** 作,来控制各类机械或生产过程。用户编制的控制程序表达了生产过程的工艺要求,并事先存入PLC的用户程序存储器中。运行时按存储程序的内容逐条执行,以完成工艺流程要求的 *** 作。PLC的CPU内有指示程序步存储地址的程序计数器,在程序运行过程中,每执行一步该计数器自动加1,程序从起始步(步序号为零)起依次执行到最终步(通常为END指令),然后再返回起始步循环运算。PLC每完成一次循环 *** 作所需的时间称为一个扫描周期。不同型号的PLC,循环扫描周期在1微秒到几十微秒之间。程序计数器这样的循环 *** 作,这是DCS所没有的。这也是使PLC的冗余不如DCS的原因。DCS是在运算放大器的基础上得以发展的。把所有的函数、各过程变量之间的关系都作成功能块(有的DCS系统称为膨化块)。70年代中期的DCS只有模拟量控制。如TDC2000系统,一个控制器一秒钟内能完成8个PID回路的运算。首先应用的是化工行业。DCS和PLC的表现的主要差别是在开关量的逻辑解算和模拟量的运算上,即使后来两者相互有些渗透,但是还是有区别。80年代以后,PLC除逻辑运算外,也有一些控制回路用的算法,但要完成一些复杂运算还是比较困难,PLC用梯形图编程,模拟量的运算在编程时不太直观,编程比较麻烦。但在解算逻辑方面,表现出快速的优点,在微秒量级,解算1K逻辑程序不到1毫秒。它把所有的输入都当成开关量来处理,16位(也有32位的)为一个模拟量。而DCS把所有输入都当成模拟量,1位就是开关量。解算一个逻辑是在几百微秒至几毫秒量级。对于PLC解算一个PID运算在几十毫秒,这与DCS的运算时间不相上下。大型PLC使用另外一个CPU来完成模拟量的运算。把计算结果送给PLC的控制器。不同型号的DCS,解算PID所需时间不同,但都在几十毫秒的量级。如早期的TDC2000系统,1秒钟内完成8个回路的控制运算。随着芯片技术的发展,解算一个算法的时简在缩短。解算一个算法所需时间与功能块的安排方式和组态方式有关。
在接地电阻方面,对PLC也许要求不高,但对DCS一定要在几欧姆以下(通常在4欧姆以下)。模拟量隔离也是非常重要的。在有爆炸危险的地方,应配置本质安全栅。
相同I/O点数的系统,用PLC比用DCS,其成本要低一些(大约能省40%左右)。PLC没有专用 *** 作站,它用的软件和硬件都是通用的,所以维护成本比DCS要低很多。一个PLC的控制器,可以接收几千个I/O点(最多可达8000多个I/O)。DCS的控制器,只能几百个I/O点(不超过500个I/O)。如果被控对象主要是设备连锁、回路很少,采用PLC较为合适。如果主要是模拟量控制、并且函数运算很多,最好采用DCS。DCS在控制器、I/O板、通讯网络等的冗余方面,一些高级运算、行业的特殊要求方面都要比PLC好的多。PLC由于采用通用监控软件,在设计企业的管理信息系统方面,要容易一些。
特别要指出的是,DCS的专用 *** 作站,不是天经地义的。它是由历史原因形成的。DCS厂家如再不开放 *** 作站,与工厂的管理信息系统连网,个别DCS就有从市场中消失的危险。
随着新技术的诞生,负面影响也跟着而来。新 *** 作站的开放,病毒和黑客容易侵入到系统。在作设计时,在 *** 作站上设置密码,系统多加隔离和防火墙。把负面影响减到最小。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)