网站服务器硬件设备及病毒防护设施哪家好

网站服务器硬件设备及病毒防护设施哪家好,第1张

服务器的病毒防护一般可以分成两个方面,一个是防止被上传,另一个是对对服务器进行扫描杀毒 *** 作。防止上传的只要安装相应的服务器安全防护软件即可。像安全狗、护卫神、云锁都挺不错的,至于服务器上的扫描杀毒,对杀毒软件是一定的要求的:首先就是隐私的保护,服务器数据被私自上传下载是大忌,许多杀软都会私自扫描用户硬盘并且上传数据,这是需要高度重视的问题;另外再运行的时候,服务器上的杀毒需要杀软尽可能的少占用资源,这样服务器的负担才不会太重,另外服务器上的一些主流软件是无法和杀软兼容的,这也是需要注意的地方。因此,服务器上的杀毒不能使用一般的pc杀毒软件。而专门针对服务器上杀毒的软件目前市面上貌似也只有服务器安全狗杀毒版这一个软件而已,庆幸,这还是个免费软件。值得一试,即可防御又能主动杀毒

适用场景: AI推理(图像分类识别、语音识别、自然语言处理)、视频编解码、机 器 学习、轻量级训练 等。
从GPU高性能计算到可视化再到人工智能基础设施,为客户提供计算能力强大,d性可配置,性价比高的异构计算实例。其应用前景极其广泛,适用于深度学习、视频渲染、虚拟化桌面等对计算能力、时延要求极高的场景,同时还能满足分子建模、基因组学等领域对基础设施的高要求。
腾讯云推出最新异构计算全新产品矩阵,从GPU高性能计算到可视化再到人工智能基础设施,为客户提供计算能力强大,d性可配置,性价比高的异构计算实例。
其应用前景极其广泛,适用于深度学习、视频渲染、虚拟化桌面等对计算能力、时延要求极高的场景,同时还能满足分子建模、基因组学等领域对基础设施的高要求。
以深度学习为例,深度学习在训练阶段涉及大量浮点数值计算,矩阵乘法,向量化等 *** 作,需要处理的数据规模可以高达几个T。随着深度学习层次越来越深,计算量的增长也将随之加大。
一次训练过程使用CPU需要几天甚至几周才能完成,而使用腾讯云的GPU云服务器,可以小时级完成训练,优势很明显。只有快速完成深度学习的训练过程,才能加快深度学习的迭代速度,帮助企业改进产品,在竞争中胜出。

1、美国服务器国际带宽全球最大。纵横数据美国服务器租用最大的优势,就是拥有足够的带宽。作为全球互联网骨干最重要的部分,美国是全球顶级互联网数据中心产业基地,如今在硬件配置和软件设施方面已然处于行业领先地位,带宽方面更是丰裕充足。

2、美国服务器性能稳定。选用纵横数据服务器最重要同时最基本的要求就是速度和稳定性了,这对外贸企业的顾客群、市场份额以及原有顾客忠诚度都将带来不利影响。然而,美国机房连接多条优质线路,已实现自动切换转移,早年已架设了多条海底光缆来进行高效的全球数据交换;先进的机房管理设备以及强大的技术支持是服务器速度和稳定强大保障。

3、其次,美国服务器访问高峰和国内正好错开,这对于国外客户对外贸企业的访问浏览都是十分有利的。因此,租用东方网域美国服务器是企业级外贸网站、邮件服务、数据交换等应用第一选择。

鉴于云服务器的优势,云服务器更合适电子商务网站、外贸网站、社交网站、论坛、当地门户网站、图像共享网站等一些需求存储很多数据和需求迅速访问的中小型网站。云服务器能够很好的帮助这些网站进步访问速度和处理速度。

云服务器的出现,可谓是鱼与熊掌都能够兼得,完美统筹了性强和报价的两大特性。虽然比传统的虚拟主机和VPS报价更贵一些,可是安全、稳定性不可否认,正是这种完美的技能才促进越来越多的公司挑选租用云服务器。

扩展资料:

云服务器的优势

1、安全稳定、数据牢靠有保证

体系稳定:在线率高达99.9%,支撑云服务器故障主动搬迁,恢复速度快,云服务器信息不变(IP信息,磁盘等)。

网络安全:安全组间自带防火墙;可根绝ARP攻击和MAC诈骗;有用防护DDoS攻击,可进行端口侵略扫描,挂马扫描,漏洞扫描等。

数据安全:选用大规模分布式计算体系,每份数据多个副本;单份损坏能够在短时间内迅速恢复,保证数据安全。

2、杰出功能以及d性d性功能

灵敏扩容:计算资本可d性d性;能够按需改变服务器的配置。云服务器支撑套餐晋级、带宽灵敏按天晋级(无需停机)等,随时满足您的事务开展需求。

3、访问速度快,数据处理速度更快

云服务器能够自个挑选所需求的线路,也能够挑选单线或许双线,访问速度大大进步,因为云服务器运用的是云计算,所以处理速度更快,用户体会更高。

本篇文章是深入理解Terraform系列的第一部分。在介绍文章中,我们讨论了为什么每家互联网软件公司都应该使用基础设施即代码(IAC)。那么本篇,我们打算讨论下为什么我们选择Terraform 作为我们的IAC 工具。

如果你在网上搜索“instrastructure-as-code”,很容易看到很多受欢迎的工具:

筛选出它们中你应该使用哪个不是很容易。所有这些上述工具都可以用于基础设施即代码。它们都是开源的,背靠庞大的贡献者社区,可以很好配合各种不同的云服务商。它们都提供商业支持,提供良好的文档——在官方文档和社区资源方面(比如博客文章和StackOverflow问答)。

本篇文章,我们会分成几个特定原因来解释为什么我们会选择Terraform作为IAC工具。与所有技术决策一样,这是一个权衡和优先级的问题,虽然您的特定优先级可能与我们的不同,但我们希望分享我们的思维过程将帮助您做出自己的决定。以下是我们考虑的主要权衡因素:

Chef, Puppet, Ansible, and SaltStack 都是配置管理工具,这意味着它们设计初衷都是在现有的服务器上安装和管理软件。CloudFormation 和 Terraform 是配置(provisioning)工具,这意味这它们的设计初衷是配置服务器本身的(以及基础设施的其他部分,比如负载均衡器,数据库,网络配置等),将配置这些服务器的工作留给其他工具。这两类工具互相不排斥的。因为大多数配置管理工具可以在某种程度上多一些配置工作而大多数配置工具也可以在某种程度上做配置管理的工作。但是聚焦于配置管理或者配置意味着,这些工具对于特定类型的任务会更加合适。

想Chef,Puppt,Ansible 这样的配置管理工具默认针对一种可变的基础设施范例。比如,如果你告诉Chef 安装一个新版本的OpenSSL,它就会在你现有的服务器上运行软件更新并且就地生效。随着时间推移,你会更新的更多,每台服务器都会构建一个唯一的修改 历史 。这通常会导致称为配置漂移或者误差的现象,其中每个服务器与所有其他服务器略有不同,导致难以诊断且几乎不可能再现的细微配置错误。

如果你正在使用像Terraform这样的配置工具来部署由Docker 或者 Packer创建的镜像,那么每次"修改"事实上都是一次新服务器的部署(就像是函数式编程中每次变量的修改事实上会返回新的变量)。比如,当我们部署一个新版本的OpenSSL,你会用装有新版本OpenSSL的Packer或者Docker来创建镜像,然后在整组新服务器中部署那个镜像,同时卸载老的镜像。这种方法减少了配置偏差问题的可能性,使得了解服务器上运行了哪些软件变得更加容易,同时可以让你任何时候都可以轻松部署任何版本的软件。当然,也可以强制配置管理工具来做不可变部署。但是对这些工具来说,这不是惯用的方式。不管怎样,使用配置工具都是一种更加自然的方式。

Chef和Ansible鼓励一种程序风格,您可以编写代码,逐步指定如何实现预期状态。 Terraform,CloudFormation,SaltStack和Puppet都鼓励更具说明性的风格,您可以编写指定所需最终状态的代码,IAC工具本身负责确定如何实现该状态。

例如,假设您要部署10台服务器(AWS术语中的“EC2 Instances”)来运行应用程序的v1版本。以下是使用过程方法执行此 *** 作的Ansible模板的简化示例:

表面上看,这两种方法可能看起来相似,当您最初使用Ansible或Terraform执行它们时,它们将产生类似的结果。有趣的是,当您想要进行更改时会发生什么。

例如,假设流量增加,并且您希望将服务器数量增加到15。使用Ansible,您之前编写的过程代码就没法使用了;如果您刚刚将服务器数量更新为15并重新启动该代码,那么它将部署15台新服务器,总共25台服务器!因此,您必须了解已部署的内容并编写一个全新的过程脚本来添加5台新服务器:

如果你执行了这个模板,Terraform会意识到它已经创建了10个服务器,因此它需要做的只是创建5个新服务器。实际上,在运行此模板之前,您可以使用Terraform的 plan 命令来预览它将进行的更改:

显然,上述例子是简化的。 Ansible允许您在部署新的EC2实例之前使用标签来搜索现有的EC2实例(例如,使用instance_tags和count_tag参数),但是必须根据每个资源的情况为Ansible管理的每个资源手动找出这种逻辑。 过去的 历史 ,可能会令人惊讶地复杂化(例如,不仅通过标签,还可以通过图像版本,可用区域等查找现有实例)。 这突出了程序IAC工具的两个主要问题:

默认情况下,Chef,Puppet和SaltStack都要求您运行主服务器以存储基础设施的状态并分发更新。 每次要更新基础设施中的某些内容时,都使用客户端(例如,命令行工具)向主服务器发出新命令,主服务器将更新推送到所有其他服务器或那些服务器定期从主服务器中提取最新的更新。

主服务器提供了一些优点。 首先,它是一个单一的中心位置,您可以在其中查看和管理基础设施的状态。 许多配置管理工具甚至为主服务器提供Web界面(例如,Chef Console,Puppet Enterprise Console),以便更容易查看正在发生的事情。 其次,一些主服务器可以在后台连续运行,并强制执行您的配置。 这样,如果有人在服务器上进行手动更改,主服务器可以还原该更改以防止配置偏移。

但是,必须运行主服务器有一些严重的缺点:

Chef,Puppet和SaltStack对无主模式有不同程度的支持,您只需在每个服务器上运行代理软件,通常在一定周期内(例如,每5分钟运行一次的cron作业),并使用它从版本控制(而不是从主服务器)下拉最新更新。 这显着减少了变动的次数,但是,如下一节所述,这仍然留下了许多未答复的问题,尤其是关于如何配置服务器以及首先在其上安装代理软件的问题。

Ansible,CloudFormation,Heat和Terraform默认都是无主的。 或者,更准确一些,它们中的一些可能依赖于主服务器,但它已经是您正在使用的基础设施的一部分,而不是您必须管理的额外部分。 例如,Terraform使用云提供商的API与云提供商进行通信,因此在某种意义上,API服务器是主服务器,除了它们不需要任何额外的基础设施或任何额外的认证机制(即,只使用您的API密钥)。 Ansible的工作方式是通过SSH直接连接到每个服务器,因此,您不必再运行任何额外的基础结构或管理额外的身份验证机制(即只使用SSH密钥)。

Chef,Puppet和SaltStack都要求您在要配置的每台服务器上安装代理软件(例如,Chef Client,Puppet Agent,Salt Minion)。 代理通常在每个服务器的后台运行并负责

安装最新的配置管理更新。

这有一些缺点:

再强调一次,Chef,Puppet和SaltStack都对无代理模式(例如,salt-ssh)有不同程度的支持,但是这些通常感觉它们是作为事后的想法加入的,并不总是支持完整的配置管理工具的功能集。这就是为什么Chef,Puppet和SaltStack的默认或惯用配置几乎总是包含一个代理,通常也包含一个master。

所有这些额外的动态部分都会在您的基础架构中引入大量新的故障模式。 每次凌晨3点收到错误报告时,您都必须弄清楚它是否是应用程序代码,IAC代码,配置管理客户端,主服务器或者服务器中的错误。 客户端与主服务器通信,或者其他服务器与主服务器通信的方式,或者

Ansible,CloudFormation,Heat和Terraform不要求您安装任何额外的代理。 或者,更准确一些,它们中的一些需要代理,但这些代理通常已作为您正在使用的基础结构的一部分安装。 例如,AWS,Azure,Google Cloud和所有其他云提供商负责在每台物理服务器上安装,管理和验证代理软件。 作为Terraform的用户,您不必担心任何问题:您只需发出命令然后云服务商会在所有你的服务器上为你执行它们。 使用Ansible,您的服务器需要运行SSH守护程序,不管怎么样,这都会普遍运行在大多数服务器上的。

选择任何技术时要考虑的另一个关键因素是成熟度。 下表显示了每个IAC工具的初始发布日期和当前版本号(截至2019年5月)。

同样,这不是一个同类的比较,因为不同的工具有不同的版本控制方案,但一些趋势是明确的。 到目前为止,Terraform是此比较中最年轻的IAC工具。 它仍然是处于100版本之前,因此无法保证稳定或向后兼容的API,并且错误相对常见(尽管大多数都是次要的)。 这是Terraform最大的弱点:虽然它在短时间内变得非常受欢迎,但使用这种新的尖端工具所付出的代价是它不像其他一些IAC选项那样成熟。

虽然我一直在比较整个博客文章中的IAC工具,但事实是您可能需要使用多种工具来构建您的基础设施。 您看到的每个工具都有优点和缺点,因此您需要为正确的工作选择合适的工具。

以下是我见过的三种常见组合在很多公司都很好用:

配置 + 配置管理

示例:Terraform和Ansible。 您可以使用Terraform部署所有底层基础设施,包括网络拓扑(即VPC,子网,路由表),数据存储(例如,MySQL,Redis),负载均衡器和服务器。 然后,您使用Ansible在这些服务器之上部署您的应用程序。

这是一个简单的方法,因为没有运行额外的基础设施(Terraform和Ansible都是客户端应用程序),并且有很多方法可以使Ansible和Terraform一起工作(例如,Terraform为您的服务器添加特殊标签然后Ansible使用这些标签来查找服务器并对其进行配置。 主要缺点是使用Ansible通常意味着您编写了大量程序式代码,使用可变服务器,因此随着代码库,基础架构和团队的增长,维护可能会变得更加困难。

配置 + 服务器模板

示例:Terraform和Packer。您使用Packer将应用程序打包为虚拟机镜像。然后使用Terraform部署(a)具有这些虚拟机镜像的服务器和(b)基础架构的其余部分,包括网络拓扑(即VPC,子网,路由表),数据存储(例如,MySQL,Redis),和负载均衡器。

这也是一种简单的方法,因为没有运行额外的基础设施(Terraform和Packer都是仅客户端应用程序)。此外,这是一种不可变的基础架构方法,这将使维护更容易。但是,有两个主要缺点。首先,虚拟机可能需要很长时间才能构建和部署,这会降低迭代速度。其次,您可以使用Terraform实施的部署策略是有限的(例如,您无法在Terraform中本地实施蓝绿色部署),因此您要么最终编写大量复杂的部署脚本,要么转向编排工具,如下所述。

配置 + 服务器模板 + 编排

示例:Terraform,Packer,Docker和Kubernetes。 您使用Packer创建安装了Docker和Kubernetes的虚拟机映像。 然后使用Terraform部署(a)服务器集群,每个服务器运行此虚拟机镜像,以及(b)基础架构的其余部分,包括网络拓扑(即VPC,子网,路由表),数据存储( 例如,MySQL,Redis)和负载均衡器。 最后,当服务器集群启动时,它形成一个Kubernetes集群,用于运行和管理Dockerized应用程序。

这种方法的优点是Docker镜像构建相当快,您可以在本地计算机上运行和测试它们,并且您可以利用Kubernetes的所有内置功能,包括各种部署策略,自动修复,自动缩放, 等等。 缺点是增加了复杂性,无论是在运行额外的基础设施方面(Kubernetes集群都很难部署和运营,尽管大多数主要的云提供商现在提供托管的Kubernetes服务,可以减轻部分工作),还是学习、管理和debug额外的抽象层(Kubernetes,Docker,Packer)方面。

云服务器又称云主机,云服务器是在云计算环境中运行的虚拟服务器,而不是物理服务器,通过互联网云计算进行一系列的远程 *** 作。云服务器也是虚拟服务器的一种,只是相对比较高级,配置比较灵活,云服务器相对比较独立,拥有高度的运行环境。

云服务器作用:

1、放置公司网站和电子商务平台

随着越来越多的公司开始通过互联网开发业务渠道,许多公司将选择将其网站放置在云服务器上,并允许用户直接通过云服务器访问它们。不仅是企业网站,还有博客,电子商务平台等。不仅安全稳定,数据安全,而且具有成本效益。

2、APP和其他应用程序

它不仅仅是一个可以放置在云服务器上的网站,诸如APP之类的应用程序以及任何希望用户访问网络的应用程序都可以放置在云服务器上。但是,应该注意的是,一般APP等应用对云服务器配置要求较高,所以尽量选择配置较高的云服务器。

3、使用云服务器来存储和共享数据

许多公司,由于数据量大,或需要实时共享。它将专门购买云服务器来存储数据。它不仅高度安全,而且提供在线下载和数据共享,非常方便。

4、云服务器放置游戏

许多小型游戏都放在云服务器或服务器上,然后才能访问它们。很多时候游戏链接不稳定或闪回,这可能是由于云服务器过载。还有一些用户专门购买云服务器与其他人进行在线玩。

1>硬件,主机是服务器,如果是租用网络公司的空间,投入较低,并且有人主动维护,缺点是费用必须每年交纳,并且受对方限制较强。如果资金充足,建议自己买服务器,服务器可选择品牌机,或配置好的杂牌机。

如果是自己买服务器就得到电信或网通等公司申请服务器托管,一年费用可能在6000-10000左右。

2>网站开发语言的选择,各种语言各有优劣势,如果要省钱就采用PHP加Mysql的方式,因为Mysql数据库是完全免费的;

3>是否要考虑网上支付,如果要采用CA认证的话,那费用是直线上升,一般最起码也要几W块钱,建议网站前期不考虑CA(可等网站赢利后再考虑);

4>域名费:一个好记的域名非常重要,如阿里巴巴网站,域名非常好记。

5>网站推广,网站建好以后,如果没有知名度,也是白搭,并且对推广网站本身的会员制也比较麻烦。网站推广可考虑两方面,一是在线推广,现在包括,google都有排名服务,二是线下推广,包括在专业杂志做广告,或发传单等等常规方式。

由于你的需求不是很清楚,所以我也只能讲这些,希望能对你有所帮助。

一般网络公司报价都比较黑的,注意砍价。

本篇文章主要介绍了"VXLAN, 一种叠加在L3网络上的L2网络 ",主要涉及到VXLAN, 一种叠加在L3网络上的L2网络 方面的内容,对于VXLAN, 一种叠加在L3网络上的L2网络 感兴趣的同学可以参考一下。
这几天看了下RFC7348,顺便翻译了一下,根据自己理解做了注解

虚拟化及租户隔离

服务器虚拟化增加了对物理网络基础设施的需求,服务器有多个虚机,要求交换机支持更大的MAC地址表。

在数据中心场景下,虚机按照VLAN分组,可能需要成千上万的VLAN,以便用来给为按照VLAN标签分组的虚机分隔流量。但是当前VLAN机制限制最多只能有4096个VLAN。

数据中心需要支持多个租户,每个租户需要分隔的网络域,单独实现分离的网络域不经济。管理员一般基于共享网络进行隔离。各租户独立进行VM的MAC和VLAN的分配,可能在共享的同一个物理网络上,出现MAC和VLAN的冲突。

在虚拟化场景下,还有一个需求是基于第二层在整个数据中心,或者跨数据中心进行扩展,扩展计算,存储和网络资源,此时传统的用来避免路径循环的STP协议,会使得更大数量的失效链路出现。此时,虽然更倾向于使用IP进行物理基础设施的链接,比如,为了实现多路径的扩展,使用ECMP避免生效链路,但是维持虚机间的L2通信依然是需要保留的。

以上场景导致了overlay叠加网络的需求,这个叠加网络用来将来自虚机的携带MAC的流量,封装后通过逻辑隧道传递。VXLAN就是这样的一种实现overlay网络的方式。

和VXLAN相关的常用术语有

ACL      Access Control List 访问控制表

ECMP     Equal-Cost Multipath 等价多路径

IGMP     Internet Group Management Protocol IGMP协议

IHL      Internet Header Length  Internet报文头长度

MTU      Maximum Transmission Unit  最大传输单元

PIM      Protocol Independent Multicast 协议无关的多播

SPB      Shortest Path Bridging  最短路径转发

STP      Spanning Tree Protocol 生成树协议

ToR      Top of Rack  机架交换机

TRILL    Transparent Interconnection of Lots of Links 多链路透明互联

VLAN     Virtual Local Area Network  虚拟LAN

VM       Virtual Machine  虚机

VNI      VXLAN Network Identifier (or VXLAN Segment ID) VXLAN网络标识符

VTEP     VXLAN Tunnel End Point  An entity that originates and/or

terminates VXLAN tunnels  VXLAN隧道端点

VXLAN    Virtual eXtensible Local Area Network  VXLAN

VXLAN Segment    VXLAN段

VXLAN Layer 2 overlay network over which VMs communicate

VXLAN Gateway    VXLAN网关

an entity that forwards traffic between VXLANs

VXLAN应用场景

VXLAN主要聚焦于数据中心基础设施。

STP和VLAN导致的限制

当前L2网络主要使用8021D STP协议在多路径基础上避免环路。但是数据中心管理员将之视为L2网络上的问题,因为STP,需要负担额外超过需要的端口和链路。STP模型下,失去了多路径的d性。一般引入TRILL(RFC6325)或者SPB(8021AQ)来帮助解决因为STP引起的多路径问题。STP的约束也可以通过将同一机架的服务器配置在相同的L3网络规避,机架内和机架间使用L3交换。但这和虚机之间的L2互联不兼容。

数据中心L2网络中普遍使用VLAN来隔离广播,以太网帧中的12bit VLANID用来将大的L2网络分隔为小的广播域。对小于4096 VLAN 的数据中心来说这样很好,随着虚拟化的流行,压力逐渐增大。更加的,因为STP,某些数据中心限制可以使用的VLAN数。再加上以上讨论的,多租户场景下,对大数量VLAN的需求。

多租户

多租户场景下,云计算要求资源的d性呈现。最常见的云计算案例是共有云,云服务提供商基于同样的物理基础设施为多个租户提供d性服务。

租户的网络流量分隔可以基于L2或者L3网络。对L2网络而言,常用VLAN分隔流量,这样租户以自己的VLAN标识。因为云服务租户的庞大数量,VLANID最大4096就不够用了。不仅如此,还有同一租户内不同VLAN的需求。

一个案例是跨POD扩展。一个POD是一个或者多个包含服务器的机架,以及相关的存储和网络组成。租户可能从一个POD起步,然后逐步需要其他POD上的VM,特别是这个‘其他’POD的租户没有充分使用POD中的资源。这个案例需要L2网络的伸缩性。

L3网络不是一个容易理解的多租户解决方案,两个租户可能各自使用同一套L3网络地址,需要云提供商支持其他形式的隔离,对于虚机间的通信,要求租户使用IP,但又不是不是信赖的直接L2网络,或者非IP的L3协议。

TOR交换机的ARP表容量

虚拟化场景对连接服务器的TOR交换机的MAC地址表容量提出了额外的要求。不是一个MAC对应一个服务器,TOR交换机需要学习一个服务器中可能多达上百的虚机的MAC。因为虚机流量会经过服务器和TOR之间的链路,传统TOR交换机,根据其面板端口数,可能连接24、48个服务器,数据中心可能包含很多个机架,每个TOR需要维护不同服务器之间通信的虚机的地址表,对比非虚拟化场景,这个对地址表空间的要求很高。

如果表空间满,交换机停止学习,直至表项超期。会导致大量未知单播帧。

VXLAN

VXLAN基于数据中心多租户场景下,聚焦以上需求,立足现有 网络基础设施,提供L2网络的伸缩。简单说,VXLAN是基于L3网络上的L2叠加网络,每一个叠加网络可称为VXLAN Segmeng,只有归属于同一个VXLAN Segment的虚机才能相互通信(这里应该是L2通信),每一个VXLAN Segment通过一个24bit的Segment ID标识,成为VXLAN Network Identifier(VNI),在同一个管理域中,最多有16M个VXLAN Segment段存在。

VNI标识了来自虚机的内部MAC帧的范围,因此跨VXLAN Segment,MAC是可以重叠的,但是(L2)流量不能,因为通过VNI分隔了。在封装来自VM的内部帧时,VNI封装在外部头中。

VXLAN Segment和VXLAN叠加网络是可以相互使用的术语。

因为封装,VXLAN是叠加在L3网络上的L2网络。隧道是无状态的,每一个帧按照一系列规则进行封装。隧道端点(VXLAN Tunnel End Point,VTEP)位于虚机宿主机的hypervisor层。这样VNI,和VXLAN相关的隧道,以及外部头封装仅为VTEP所知,虚机不感知。VTEP可以是物理交换机,或者物理服务器,可以软件或者硬件实现。

一种典型的VXLAN场景下的业务流控制是数据面学习,这里,通过源MAC地址学习,将虚机的MAC和VTEP的IP地址关联,多播则用于携带未知单播,广播和多播帧。

除了基于学习的业务流控制,其他还有分发虚机MAC和VTEP IP映射信息,可选项还包含一个基于认证或者基于目录的单个VTEP的集中查询机制,向VTEP分发这些映射信息,这个有时也被称为PUSH/PULL模型。基于学习的机制更加普遍。

虚机-虚机单播

设想,一个VXLAN网络中的虚机,不知道VXLAN,和其他服务器上的虚机通信,发送ARP查询,VTEP根据目的MAC查找这个虚机归属的VNI,以判断是否和源虚机处于相同VNI。是否需要目的MAC和对端VTEP的映射,如果答案为需要,则需要组装一个包含了外部帧头(MAC),外部IP头,VXLAN头的外部报文头。封装报文转发到对端VTEP。

对端VTEP检查VNI,判断本地对应VNI中是否有虚机匹配内部帧当中的目的MAC,如果是则报文去掉封装部分发送给目的虚机,后者不感知外部帧,以及VXLAN封装。

为了将报文转发给目的虚机,远端VTEP需要学习内部帧源MAC(本端虚机)和外部源IP(本端VTEP地址)的映射,也就是VTEP需要学习对端虚机MAC和对端VTEP的映射关系,实际上,这个VTEP可以通过广播ARP查询来实现。

VTEP将这个映射存储在表中,当目的虚机返回响应时,VTEP根据目的MAC查表,将报文封装后发给特定的(发出请求报文的虚机归属的)VTEP。这里无需未知目的泛洪。

实际传输之前,源虚机确定目的虚机的MAC地址,过程类似非VXLAN环境,略有一点不同,下文描述。广播帧封装在多播报文中发送。

广播和多播映射

虚机使用IP地址进行通信时,假定处于同一subnet中,源主机首先发送ARP广播,在非vxlan环境中,这个帧,携带VLAN,在所有交换机中广播。

Vxlan下,包含vni,ip头和udp头的数据段插入到报文的前部,这个报文会被广播到overlay所在的ip 多播组中。

为了实现这个效果,需要在vxlan vni和需要使用的ip多播组之间进行映射,这个在管理层实现,并通过管理通道发送给VTEP,使用这个映射,vtep可以在需要时,向上行流的交换机/路由器发送加入/离开IP多播组的IGMP成员报告。如此这般,可使用特定多播地址,基于主机上组播成员是否存在,维护特定的多播地址(rfc4541)。使用某些路由协议,比如PIM-SM(RFC4601),可在L3网络上提供足够的多播树。

VTEP使用(G)联合joins,在VXLAN隧道源未知或者经常变化的场景下(因为虚机常常在不同主机之间迁移),因为VTEP既可以作为多播数据报的源也可以作为目的,类似BIDIR-PIM(RFC5015)这样的协议效率更高。

目的虚机的ARP响应通过普通IP单播发送,到达和源虚机相连的VTEP,条件是先前已经学习了ARP响应的目的MAC地址到VTEP IP的映射。

多播帧和未知目的MAC帧,类似广播帧,使用多播树发送。

物理基础设施

在网络中使用IP多播时,网络中的L3设备,交换机/路由器会用到多播路由协议,比如PIM-SM,这样会构建有效的多播转发树,多播报文会发送到希望到达的主机处。

另外,并没有要求源和目的主机基于L3网络连接,VXLAN也可以基于L2网络,此时可通过IGMP snooping在L2网络上实现多播复制。

VTEP不能对VXLAN报文分片。中间路由器可能因为过大帧长的缘故对VXLAN封装报文分片。目的VTEP可能丢弃这些分片了的VXLAN报文,为了避免端到端流量的可能分片,推荐将所经过的物理设施的MTU设置为能容纳可能的最大VXLAN封装。其他技术,诸如Path MTU Discovery(RFC1191/RFC1981)可用来满足这个需求。

VXLAN场景

VXLAN一般应用于数据中心虚机,这些虚机分布在不同的机架,单个机架可能属于多个不同的L3网络,但可能属于同一个L2网络,VXLAN段叠加在这些L2或者L3网络上。

类似下图,两个虚拟服务器挂载于同一个L3网络,这两个服务器可能位于同一机架,也可能不同机架,或者是同一管理域的不同数据中心,有4个VXLAN 段,VNI22,34,74,98,Server1中的VM1-1和Server2中的VM2-4位于同一VNI22,虚机不知道叠加网络的存在,因为vxlan封装和解封装在vtep上发生,其他vni如表格

Vni  server1         server2

22    vm1-1           vm2-4

34    vm1-2            vm2-1

74    vm1-3            vm2-2

98    vm1-4            vm2-3

一个部署场景是,VTEP在一个感知vxlan网络的物理服务器中,另一种场景,VXLAN叠加网络中的节点,需要于传统网络,可能是VLAN,中的节点通信。此时需要部署VXLAN网关,在VXLAN和非VXLAN网络之间转发流量。

来自VXLAN网络接口的入向帧,网关去掉VXLAN头,根据内部帧目的MAC地址进行转发,包含内部帧VLAN ID的解封装报文,只能转发到非VXLAN接口,否则丢弃。相对的,来自非VXLAN 接口的报文,根据VLANID,映射到特定的VXLAN 叠加网络,除非显式配置通过封装的VXLAN传递,否则VLANID在封装为VXLAN报文前应当删除。

提供VXLAN隧道终结功能的网关,可以是TOR或者接入交换机,也可以是DC网络拓扑中的上层网络设备,比如核心或者WAN边缘设备,后一种场景,可能包含一个Provider Edge路由器用来在混合云环境中终结vxlan隧道,所有这些案例中,网关可能是软件或者实现。

网关或者VTEP处理包含VLANID的帧的规则:

解封装后包含VLANid的VXLAN帧,除非配置,否则丢弃。

VTEP封装VXLAN隧道报文时,内部不带VLANid,除非专门设置。就是说若一个带有vlan tag的报文准备进入vxla隧道时,除非显式配置,否则应该去掉vlan tag。(就是vni和vlan tag的映射)

1、安全性强服务器放在专业的机房里,齐全的硬件设施以及稳定的网络环境。所以数据的保密是比较好的,而且带宽也充足,就不会怕在业务高峰期的时候出现堵车现象,网站崩溃,打不开等等问题。

2、稳定性强服务器托管因为独享机房的资源,会处在一个安全、稳定的网络环境,更有利于服务器的运行。托管带宽充足,服务器运行处于一个高速的网络环境,所以提高了网站的打开速度,使得网页打开更快,大大提高了用户的体验。

3、减少成本支出将主机托管在服务商可以省去自己搭建数据中心的成本以及搭建时的麻烦,因为服务器的保养与维护是需要专业的技术人员才能完成的,所以企业将服务器托管在专业的服务商,就可以省去额外聘请专业技术人员的花费了。

4、利于优化服务器因为是独立的ip,所以也会给搜索引擎一个好的印象,这样在以后搜索引擎蜘蛛的抓取就会相对友好,这样网站的排名也会相对靠前,所以也有利于网站的优化。最终也有利于企业的业务发展。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/12903422.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-28
下一篇 2023-05-28

发表评论

登录后才能评论

评论列表(0条)

保存