中国下一代互联网示范工程CNGI项目核心网建设的工作已经全面启动,作为CNGI项目重要组成部分的驻地网的建设也正在紧张的准备过程中。由于驻地网建设的数量多,分布广,为了方便和规范驻地网的接入,特制定CNGI示范网络驻地网建设要求和参考设计(简称“规范”)。
1、主干网、接入网和驻地网的关系
主干网是指由分布在全国多个省区或城市的核心接入节点(GigaPOPs),通过高速光纤传输链路互联构成的骨干性网络。CNGI示范网络由多个主干网通过国内互联中心互联构成。具体包括:由CERNET网络中心承建的CERNET2,以及由中国电信、中国移动、中国联通、中国网通和中科院网络中心、中国铁通分别承建各自的下一代互联网示范网络核心主干网。
驻地网和接入网是两个互相联系又各不相同的概念,驻地网(CPN)主要指接入单位内部的网络,即指用户终端(TE)至网络运营商(ISP)接入节点之间的机线设备,包括通信和控制功能以及用户驻地布线系统等,以使用户终端可以灵活方便地接入接入网,用户驻地网的内部结构可能千差万别。接入网(或称城域网)一般是指用户驻地网至网络运营商主干网之间的网络,由于接入网负责连接用户驻地网和主干网,因此需要根据主干网的情况,制定一定的规范。接入网、驻地网和主干网之间的关系如图1所示。
2、驻地网建设要求和参考设计
高等院校、科研院所和大型企业研发中心驻地网属于专网,所有用户属于同一个企业或研究机构。这类驻地网的接入方式主要是通过专线或城域网接入主干网的核心节点。根据规模不同,这类驻地网接入主干网核心节点的速率可以是高速(1G~10G),或中速(100M~1G)。驻地网建设要求包含:拟采用的IP协议、IPv6地址分配、驻地网接入设备基本要求、驻地网接入方式等几个方面的内容。
21 IP 协议
根据接入单位在资金投入方面的安排、拟开展的技术研究或业务应用需求等因素,可以考虑建设纯IPv6的用户驻地网或者IPv4/IPv6双协议栈的驻地网。
(1) 驻地网为纯IPv6网络
接入单位建设纯IPv6网络时,建议在物理上(至少在逻辑上)将IPv6网络和现有的IPv4网络分开。此时,用户的IPv6驻地网将通过独立的专线(光纤或者无线/微波)接入主干网;用户将直接使用IPv6的应用,并可实现IPv6的端到端连接;IPv6驻地网和CNGI主干网之间可使用BGP4+动态路由协议或静态路由实现互联。
(2) 驻地网为IPv4/IPv6双协议栈网络
为了充分利用已有的网络基础设施,节省投资,接入单位也可以考虑建设同时支持IPv4和IPv6的双协议栈网络。此时至少要求用户驻地网的出口路由器支持双协议栈,驻地网是否需要有两条独立的专线分别接入现有的IPv4主干网和CNGI(IPv6)主干网,取决于现有的IPv4主干网和CNGI主干网的互联情况,建议采用独立的专线分别接入IPv4和IPv6主干网。
这样,当用户使用IPv4应用时,可直接通过IPv4主干网连接;当用户使用IPv6应用时,则直接通过IPv6主干网连接。
在某些情况下,用户也可以通过IPv6网络使用IPv4应用,此时,将利用IPv4 over IPv6隧道技术,通过采用纯IPv6技术的CNGI主干网实现IPv4端到端的高性能连接。
22 IPv6地址及分配
驻地网所使用的IPv6地址应从提供接入服务的CNGI主干网承建单位获取,一般采用不小于/64范围空间的地址段,如/64、/56、/48等,具体分配由各CNGI主干网承建单位根据接入单位需求、驻地网规模和自身地址数量情况决定。
对于不同地区接入的驻地网,建议在IPv6地址段划分中设置相应的省/市(地区)字段(位)以便于指示客户的地理位置。
在给驻地网客户分配多个地址段时,如多个/64,应尽量保证其连续性,以便于聚类,必要时应考虑将一部分地址段预留给该驻地网,如将一个/60地址段分配使用了12个连续的/64地址段的驻地网,其中4个/64地址段可做预留。
23 驻地网建设及接入设备
231 驻地网设计施工
驻地网内部的设计和施工等由驻地网承担单位自行完成,但有关设计应符合国家有关驻地网建设的规范和标准。
232 驻地网接入设备的要求
驻地网接入时,一般情况下均要求驻地网有专用的出口三层设备(如路由器或三层交换机),该三层设备应具备专线上联的接口和用户下联的接口。对该设备的基本要求如下:
(1)应支持IPv4/v6双协议栈,具备IPv4/v6数据包的封装和解封装能力。
(2)如果驻地网的接入方式中需要使用到非IPv6专线的情况,则此时该三层设备应具备相应的隧道功能或地址/协议转换机制。常用的隧道机制包括手工隧道、ISATAP、6to4等,在本项目中特别强调 IPv4 over IPv6的隧道功能。
(3)FE/GE/10GE或POS接口:其下联接口可以是FE/GE接口,上联接口应根据其所连接的运营商网络侧接口决定。根据CNGI接入的带宽要求,可能使用的上联接口主要为GE、10E和/或POS。考虑到实用性,建议GE接口采用符合IEEE8023ab定义的1000Base-T、符合IEEE8023z定义的1000Base-LX、符合IEEE8023z定义的1000Base-SX之一的以太网接口;POS接口采用STM-1或STM-4光接口。
(4)如果客户网络内部路由交换的需求较少,网络结构不太复杂,不强迫要求其所使用的三层设备(路由器或三层交换机)支持动态路由协议,只支持静态路由即可。如果驻地网与CNGI骨干网间通过BGP协议互通,则该三层设备需支持BGP4+协议,目前有个别物理端口类型不支持BGP4+协议,需在选择上联端口时考虑。如果该三层设备需要参与内部的IPv6路由交换,则应根据其所连接的网络情况支持RIPng、OSPFv3、IS-ISv6协议中的一种或几种。
(5)支持SNMPv3网络管理协议。
233 接入设备的机房环境要求
接入单位应有足够面积的专用电信(通信)机房用于放置驻地网相关设备和驻地网接入主干网的接入设备,接入设备应尽量靠近运营商网络侧线路的接口,避免中间引入不必要的转接设备或线缆。同时,该机房的条件也应满足基本的设备环境要求,如防雷、防静电、防过压、防尘、防湿、防电磁干扰等。
3、接入方式
CNGI各主干网采用IPv6协议(native IPv6),但同时支持IPv4和IPv6的用户驻地网接入,根据驻地网所采用的方案,可支持如图2所示的三种方式支持接入单位端到端的应用。
31 IPv6驻地网接入
接入单位逻辑上独立的IPv6驻地网和IPv4驻地网分别通过独立的路由器和独立的专线接入IPv6(CNGI)和IPv4主干网,如图3所示。具体的接入技术可以是城域网、或POS等;传输介质可为光纤、铜缆、无线/微波等。
图2 CNGI主干网接入方式逻辑示意图
32 IPv4/IPv6双栈驻地网的接入
由于现有运营商网络一般只建有IPv4主干网/城域网,客户已接入的多为IPv4专线,因此除非将与现有IPv4驻地网连接的主干网边缘三层设备升级支持IPv6协议栈,且运营商网络与CNGI互联,并负责IPv4和IPv6流量的分流,否则,即使驻地网是IPv4/IPv6双栈网络,其出口路由器也支持双栈,但仍需要为IPv6网络(CNGI)接入再连一条专线,如图4所示。具体的接入技术可以是城域以太网、或POS等;传输介质可为光纤、铜缆、无线/微波等。
图4 IPv4/IPv6双栈网络通过独立的专线接入
33 IPv4驻地网的IPv4 over IPv6接入
对纯IPv4驻地网的接入,一种较好的方式是采用IPv4 over IPv6的隧道技术,如图5所示。在这种方式下,要求驻地网的出口路由器或者主干网的接入路由器具有IPv4 over IPv6的隧道功能,如果驻地网的出口路由器具有这样的功能,那么该路由器作为隧道的起始端点,对主干网的接入路由器没有任何特殊的要求;如果主干网的接入路由器已经具有这种隧道功能,则驻地网的出口路由器不需要具有这样的功能,相应的隧道建立工作由主干网的接入路由器完成。
IPv4 over IPv6隧道技术是一种重要的IPv4网络向IPv6网络过渡的技术,因为随着大规模IPv6主干网的建设,将来必然会涉及许多IPv4网络孤岛,IPv4 over IPv6技术能使这些孤岛透明地接入到IPv6主干网,并不失端到端的连接性。
图5 IPv4 over IPv6 Tunneling
34 IPv4驻地网的NAT-PT接入方式
对纯IPv4驻地网的接入,还有一种可能的方式是采用IPv4 to IPv6的地址/协议转换技术,如图6所示。在这种方式下,要求驻地网的出口路由器实现地址/协议转换功能。(注:从主干网的性能、效率等方面考虑,地址转换功能不建议在主干网的接入路由器一侧实现)
地址转换方式将使未来的CNGI示范网络部分地失去端到端的连接性,而且,无论转换在何处实现都会使网络的整体性能下降,因此,建议慎用这种接入模式。
图7 IPv4 to IPv6协议/地址转换方式
4.需要购置的主要设备参考
如下的设备类型供CNGI驻地网建设参考:支持IPv6的网络接入设备以155Mbps~1Gbps的速率接入驻地网,每个驻地网配备基本的网络服务和运行管理设施(包括支持IPv6的DNS服务、Web服务、以及支持IPv6的网络运行管理监控系统等)。
设备名称 数量
1 接入路由器 1
2 IPv6/IPv4千兆交换机 1
3 DNS和Web服务器(含OS) 2
4 IPv6综合网管软件 1
5 网络管理工作站(含OS) 1
6 42U 19英寸标准机柜 1
为配备上述设备,估计除国拨经费外驻地网建设单位需要有1:1左右的配套资金,具体所需资金视驻地网已有条件和建设规模而定。在建设时还需考虑单位内光缆、接入主干网的光缆、机房改造、电力扩容、安装和运行维护等的费用。
上述各种设备均有国产设备可供应,鼓励使用国产设备建设驻地网。在谈到服务器之前,我们有必要先了解一下什么是计算机网络。从组成结构来讲,计算机网络就是通过外围的设备和连线,将分布在相同或不同地域的多台计算机连接在一起所形成的集合。从应用的角度讲,只要将具有独立功能的多台计算机连接在一起,能够实现各计算机间信息的互相交换,并可共享计算机资源的系统便可称为网络。随着人们在半导体技术(主要包括大规模集成电路LSI和超大规模集成电路VLSI技术)上不断取得更新更高的成就,计算机网络迅速地涉及到计算机和通信两个领域。一方面通过网络为计算机之间数据的传输和交换提供了必要的手段,另一方面数字信号技术的发展已渗透到通信技术中,又提高了通信网络的各项性能。计算机网络从诞生至今,一共经历了四个阶段的发展过程。
第一代计算机网络大约产生于1954年,当时它只是一种面向终端(用户端不具备数据的存储和处理能力)的计算机网络。 1946年,世界上第一台计算机(ENIAC)问世。此后的几年中,计算机与计算机之间还没有建立相互间的联系。当时,电子计算机因价格和数量等诸多因素的制约,很少有人会想到在计算机之间进行通信。1954年,随着一种叫做收发器(Transceiver)的终端研制成功,人们实现了将穿孔卡片上的数据通过电话线路发送到远地的计算机上的梦想。以后,电传打字机也作为远程终端和计算机实现了相连。
第二代计算机网络出现在1969年。刚才我们已经谈到了,早期的第一代计算机网络是面向终端的,是一种以单个主机为中心的星型网络,各终端通过通信线路共享主机的硬件和软件资源。而第二代计算机网络则强调了网络的整体性,用户不仅可以共享主机的资源,而且还可以共享其他用户的软、硬件资源。第二代计算机网络的工作方式一直延续到了现在。如今的计算机网络尤其是中小型局域网很注重和强调其整体性,以扩大系统资源的共享范围。
第三代计算机网络出现在70年代。从所周知,早期计算机之间的组网是有条件的,在同一网络中只能存在同一厂家生产的计算机,其他厂家生产的计算机无法接入。这种现象的出现,一方面与当时的环境有关,因为当时的计算机还远远没有现在这样普及,一个大单位能够用上一台计算机就算不错了,更谈不上实现计算机之间的互联;另一方面与未建立相关的标准有关,当时的计算机网络只是部分高等学府或笠研机构针对自己的工作特点所建立的,还未能在大范围内(如不同的单位之间)进行连接,并且也缺乏一个统一的标准。针对这种情况,第三代计算机网络开始实现将不同厂家生产的计算机互联成网。1977年前后,国际标准化组织成立了一个专门机构,提出了一个各种计算机能够在世界范围内互联成网的标准框架,即著名的开放系统互联基本参考模型OSI/RM。简称为OSI。OSI模型的提出,为计算机网络技术的发展开创了一个新纪元。现在的计算机网络便是以OSI为标准进行工作的。
第四代计算机网络是在进入20世纪90年代后,随着数字通信的出现而产生的,其特点是综合化和高速化。综合化是指采用交换的数据传送方式将多种业务综合到一个网络中完成。例如人们一直在用一种与计算机网络很不相同的电话网传送语音住处但是,现在已经可以将多种业务,如语音、数据、图像等住处以二进制代码的数字形式综合到一个网络中来传送。
诸位不要以为笔者写走题儿了,介绍计算机网络的组成不过是为了把何谓服务器讲得更浅显些做个铺垫,因为四代计算机网络都是由服务器、工作站、外围设备和通信协议组成。而本文要向读者诸君介绍的服务器(Server)也正是整个网络系统的核心,它的存在就是为网络用户提供服务并管理整个网络的设备。服务器从外型来看,和普通的PC并没有什么两样,但其内部结构却与普通的个人PC机有着本质的不同。
如主板结构。服务器的主板从整个板型看,规格上比普通的ATX等类型主板都要大一些,但是仍然符合ATX标准。主要是由于特殊部件比较多,所以在布局方面和普通主板不尽相同。由于服务器主板对稳定性的要求非常高,因此在电气结构上,服务器主板比普通PC主板要求技高一筹,从电流输入开始,服务器主板便大多采用了双电源设计,以防止意外发生。服务器主板的电源接口大都远离重要部件如CPU插槽和内存插槽。输出电路种大量采用了滤波电容和线圈,使得输出的电流尽量干净。而一般主板在电源接口上就没有这么讲究。电源接口和CPU插槽非常近,从电源接口的输入电流和对CPU供电电流进 行稳压和滤波的电容和线圈位置非常近,很难避免互相干扰。由于服务器数据处理量很大,所以大都采用多CPU并行处理结构,主板上有偶数个CPU插槽。值得一提的是,在服务器主板上,CPU插槽边上大都有很多电解电容,是做滤电流杂波用的。理想的滤波应该是多个不很大电容来进行,这样既可以保证杂波被过滤 掉,又不会降低电流。服务器的最大特点是数据总线和地址总线上的负载比较大,I/O流量也比 较服务器主板一般都有多个超级I/O芯片,分别控制不同设备,以及多个总线驱动芯片增强负载能力,提高信号质量。为了减缓I/O瓶颈压力,一般应用SCSI接口磁盘系统。另外,由于服务器对于图形和声音要求都不算太高,所以很多服务器主板上都集成了声卡和显示卡。但是为了进一步减少CPU占用率并提高稳定性能,在硬声卡和显卡方面大多采用ATI公司的显示芯片和新加坡CREATIVE(创新)公司的声卡芯片。与此同时,在服务器主板上还经常集成有网卡芯片(如INTEL公司的82559)和RAID卡槽等。
如性能指标。服务器的性能指标是以系统响应速度和作业吞吐量为代表的。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
如扩展性能。服务器的可扩展性能与普通个人PC的升级有着本质的不同,其具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求的同时,又保护投资。
如可用性。服务器的可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如999%的可用性表示每年有8小时的时间设备不能正常运行,99999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换机构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行,而且要使系统能及时恢复到正常的部件冗余程度。
如可管理性。可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用,最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的 *** 作也非常简单方便。
由上所述,网络时代为服务器的应用提供了越来越广阔的空间,在网络技术和应用快速发展的今天,作为网络核心的服务器其重要性日益突出,服务器也由此进入了技术、应用和市场互动并迅速发展的新阶段。Unix *** 作系统由于其功能强大、技术成熟、可靠性好、网络及数据库功能强等特点,在计算机技术特别是 *** 作系统技术的发展中具有重要的不可替代的地位和作用。尽管Unix系统受到了NT的严峻挑战,但它仍是目前唯一能在各个硬件平台上稳定运行的 *** 作系统,并且在技术成熟程度以及稳定性和可靠性等方面仍然领先于NT。但在WINDOWS的不断追击下,Unix系统转向IA-64体系也是大势所趋,这里我们不妨来进一步看一下其经历的历程。
1994年,HP和Intel公司联合开发基于IA-64的Merced芯片。
1997年12月,Sun宣布将其基于Unix的 *** 作系统Solaris向IA-64体系移植。
1998年1月,Compaq/Digital公司宣布与Sequent合作,将Digital Unix *** 作系统和Sequent的产品集成,向IA-64转移。
1998年4月,SGI宣布将其主流产品向IA-64转移。
1999年1月,IBM宣布开发支持下一代IA-64架构的Unix *** 作系统,将SCO的UnixWare以及Sequent的高端PTX *** 作系统纳入自己的AIX环境,形成一个专门针对IA-64或Merced的Unix,同年,IBM收购Sequent。
因此,Unix系统转向IA-64体系已成为业界的大趋势,最重要的是,诸多Unix厂商对它的支持将打破以往Unix和Wintel两大阵营的对立,将Unix所具备的开放性发挥到顶峰,真正实现应用系统的跨平台使用,为用户提供最大的灵活性。
与IA-32位处理器相比,IA-64位处理器除增加数据宽度外,还结合CISC和RISC技术,采用显式并行指令计算(EPIC)技术,通过专用并行指令编译器尽可能将原代码编译解析为可并行 *** 作的“并行机器码”,完全兼容IA-32应用,保证了用户的可持续使用性。
CORS为Continuously Operating Reference Stations的英文缩写,翻译为中文为“连续运行参考站”。
CORS是利用全球导航卫星系统、计算机、数据通信和互联网络等技术,在一个城市、一个地区或一个国家根据需求按一定距离建立长年连续运行的若干个固定GNSS 参考站组成的网络系统。
CORS是一个W3C标准,全称是"跨域资源共享"(Cross-origin resource sharing)。它允许浏览器向跨源服务器,发出XML>
单基站CORS就是只有一个连续运行站。类似于一加一的RTK,只不过基准站由一个连续运行的基准站代替,基站同时又是一个服务器,通过软件实时查看卫星状态、存储静态数据、实时向Internet发送差分信息以及监控移动站作业情况。移动站通过GPRS、CDMA网络通讯方式与基站服务器进行通讯。
连续运行参考站系统是网络RTK系统的基础设施,(网络RTK也称多参考站RTK,是近年来在常规RTK、计算机技术、通讯网络技术的基础上发展起来的一种实时动态定位新技术。)在此基础上就可以建立起各种类型的网络RTK 系统。
随着GPS技术的飞速进步和应用普及,它在城市测量中的作用已越来越重要。当前,利用多基站网络RTK技术建立的连续运行(卫星定位服务)参考站(Continuously Operating Reference Stations),缩写为CORS)已成为城市GPS应用的发展热点之一。
CORS系统是卫星定位技术、计算机网络技术、数字通讯技术等高新科技多方位、深度结晶的产物。 CORS系统由基准站网、数据处理中心、数据传输系统、定位导航数据播发系统、用户应用系统五个部分组成,各基准站与监控分析中心间通过数据传输系统连接成一体,形成专用网络。
扩展资料
CORS的特点和优势:
1、投入较少
随着单基站技术的成熟,只要较少的投资即可在一个中小城市建立一个CORS基站,满足当地测量用户不同层次空间信息技术服务的需要:基站所在城区及近郊区、城市进出口主要交通沿线,以及以基站为中心三十公里范围内区县城镇城乡地区实现快速厘米级实时定位及事后差分。
2、随时可以升级和扩展
单/多基站系统可以随时增加新的基站,加大实时RTK作业的覆盖区域。
3、数据可靠、稳定、安全
基站连续观测,静态数据全天候采集,点位精度高,数据稳定;用户登录采取授权方式,数据中心可以管理登录用户,数据安全性高。
4、作业范围广
目前基于宾得单基站的RTK 作业半径已经扩大到40公里,能够实现快速厘米级实时定位及事后差分。
5、施工周期短
单参考站技术经过实践表明它是一种比较成熟的技术,从方案落实开始采购设备,安装调试,到验收运行整个周期1个月以内。
参考资料来源:百度百科-CORS
服务器是计算机的一种,在网络中为其它客户机提供计算或者应用服务。具体特点如下:
1、可扩展性
服务器必须具有一定的“可扩展性”,为了保持可扩展性,通常需要在服务器上具备一定的可扩展空间和冗余件(如磁盘阵列架位、PCI和内存条插槽位等)。
2、易使用性
服务器的易使用性主要体现在服务器是不是容易 *** 作,用户导航系统是不是完善,机箱设计是不是人性化,有没有关键恢复功能,是否有 *** 作系统备份,以及有没有足够的培训支持等方面。
3、可用性
可用性,即所选服务器能满足长期稳定工作的要求,不能经常出问题。服务器所面对的是整个网络的用户,而不是单个用户,在大中型企业中,通常要求服务器是永不中断的。为了确保服务器具有高的可用性,除了要求各配件质量过关,还可采取必要的技术和配置措施,如硬件冗余等。
4、易管理性
在服务器虽然在稳定性方面有足够保障,但也应有必要的避免出错的措施,以及时发现问题,而且出了故障也能及时得到维护。这不仅可减少服务器出错的机会,同时还可大大提高服务器维护的效率。
扩展资料:
服务器按体系架构分类:
1、非x86服务器
非x86服务器包括大型机、小型机和UNIX服务器,是使用RISC(精简指令集)或EPIC(并行指令代码) 处理器,并且主要采用UNIX和其它专用 *** 作系统的服务器,精简指令集处理器主要有IBM公司的POWER和PowerPC处理器,SUN与富士通公司合作研发的SPARC处理器等。
2、x86服务器
x86服务器,即通常所讲的PC服务器,它是基于PC机体系结构,使用Intel或其它兼容x86指令集的处理器芯片和Windows *** 作系统的服务器。价格便宜、兼容性好、稳定性较差、安全性不算太高,主要用在中小企业和非关键业务中。
参考资料来源:百度百科-服务器
什么是网络 *** 作系统?网络 *** 作系统(NOS)是网络的心脏和灵魂,是向网络计算机提供服务的特殊的 *** 作系统。它在计算机 *** 作系统下工作,使计算机 *** 作系统增加了网络 *** 作所需要的能力。例如像前面已谈到的当在LAN上使用字处理程序时,用户的PC机 *** 作系统的行为像在没有构成LAN时一样,这正是LAN *** 作系统软件管理了用户对字处理程序的访问。网络 *** 作系统运行在称为服务器的计算机上,并由联网的计算机用户共享,这类用户称为客户。
NOS与运行在工作站上的单用户 *** 作系统或多用户 *** 作系统由于提供的服务类型不同而有差别。一般情况下,NOS是以使网络相关特性达到最佳为目的的,如共享数据文件、软件应用,以及共享硬盘、打印机、调制解调器、扫描仪和传真机等。一般计算机的 *** 作系统,如DOS和OS/2等,其目的是让用户与系统及在此 *** 作系统上运行的各种应用之间的交互作用最佳。
为防止一次由一个以上的用户对文件进行访问,一般网络 *** 作系统都具有文件加锁功能。如果系统没有这种功能,用户将不会正常工作。文件加锁功能可跟踪使用中的每个文件,并确保一次只能一个用户对其进行编辑。文件也可由用户的口令加锁,以维持专用文件的专用性。
NOS还负责管理LAN用户和LAN打印机之间的连接。NOS总是跟踪每一个可供使用的打印机,以及每个用户的打印请求,并对如何满足这些请求进行管理,使每个端用户感到进行 *** 作的打印机犹如与其计算机直接相连。
NOS还对每个网络设备之间的通信进行管理,这是通过NOS中的媒体访问法来实现的。
客户机/服务器模式 Client/server model) 简称C/S系统。是一类按新的应用模式运行的分布式计算机系统。
在这个应用模式中,用户只关心完整地解决自己的应用问题,而不关心这些应用问题由系统中哪台或哪几台计算机来完成。在C/S系统中,能为应用提供服务(如文件服务,打印服务,拷贝服务,图象服务,通信管理服务等)的计算机或处理器,当其被请求服务时就成为服务器。
与服务器相对,提出服务请求的计算机或处理器在当时就是客户机。从客户应用角度看,这个应用的一部分工作在客户机上完成,其他部分的工作则在(一个或多个)服务器上完成。
扩展资料
客户机/服务器模式的特点:
可快速进行信息处理。由于在 C/S 结构中是一种基于点对点的运行环境,当一项任务提出请求处理时,可以在所有可能的服务器间均衡地分布该项任务的负载。这样,在客户端发出的请求可由多个服务器来并行进行处理,为每一项请求提供了极快的响应速度和较高的事务吞吐量。
可实现资源共享。C/L结构中的资源是分布的,客户机与服务器具有一对多的关系和运行环境。用户不仅可存取在服务器和本地工作站上的资源,还可以享用其他工作站上的资源,实现了资源共享。
参考资料来源:百度百科-客户服务器模式
站群服务器是什么?随着网络的发展,企业或是用户如果想组建多个网站,就需要用到站群服务器了。所谓的站群,就是单独为一个网站或多个网站配置独立IP的一种服务器。
云霸天下IDC站群服务器租用
站群服务器的作用
站群服务器能提高搜索引擎的友爱度,提高网站文章的收录以及网站的权重,这也是网站SEO优化的重要一步。
如果这些网站结构或内容大致相同,那更需要独立IP去支撑,否则这类网站域名都解析到同一个IP,搜索引擎会轻易认定是垃圾网站,网站权重自然不会提升。而站群服务器就是为客户提供多种IP,专门为多个网站做优化的。
站群服务器选择类型
站群服务器有很多类型可供选择,香港、美国、韩国等等不同类型的站群服务器,使用最多的类型还是香港主机和美国服务器。
1、香港站群服务器
做站群服务器,香港多IP服务器是个不错的选择,在速度与稳定性方面比较快,有优质的售后,一般可以与技术直接沟通交流。因为性能比较不错,所以在价格方面会相对贵一点。
2、美国站群服务器
美国站群服务器也是比较好的,拥有比较丰富的网络资源,硬件配备,其稳定性也是比较高的,速度比不上香港空间,比较距离摆在那,但也可以作为考虑的对象。
基站属于无线接入侧,没有也没必要用服务器。服务器是用于大数据量处理的,一个服务器可以处理数百、上千个基站的数据。中心机房里的服务器,分各种类型的,如数据库服务器、网管服务器、记费的、鉴权的、网关的,硬件上就是IBMHP
DELL
这些,软件上就是甲骨文、DB2这些, *** 作系统就是WINDOWS
SERVER、Linux这些
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)