云服务器做负载均衡需要用户做额外的配置吗

云服务器做负载均衡需要用户做额外的配置吗,第1张

答:云空间是由多台服务器提供负载均衡的。
云空间也就是大容量云空间集合,由多台服务器提供负载均衡,资源网站实际按需要进行动态分配。
云空间的原理概念
云计算(Cloud Computing)是分布式处理(Distributed Computing)、并行处理(Parallel Computing)和网格计算(Grid Computing)的发展,或者说是这些计算机科学概念的商业实现。云计算的基本原理是,通过使计算分布在大量的分布式计算机上,而非本地计算机或远程服务器中,企业数据中心的运行将更与互联网相似。这使得企业能够将资源切换到需要的应用上,根据需求访问计算机和存储系统。这可是一种革命性的举措,打个比方,这就好比是从古老的单台发电机模式转向了电厂集中供电的模式。它意味着计算能力也可以作为一种商品进行流通,就像煤气、水电一样,取用方便,费用低廉。最大的不同在于,它是通过互联网进行传输的。

负载均衡的配置主要是监听的配置,其他配置不在这里赘述。这里以快速上手,简单配置>

配置负载均衡监听

配置步骤:

1进入小鸟云控制台,选择 “负载均衡”—>“负载均衡管理”—>“某负载均衡实例ID”

2选择 “监听设置”—>“添加监听”

3根据需求自定义监听基本信息。 监听基本信息参数介绍>>

4配置健康检查信息。 健康检查各项参数介绍>>

5配置成功!

控制台页面:

我们一起来快速认识一下,负载均衡——SLB。负载均衡SLB是将访问流量根据转发策略分发到后端多台云服务器(ECS实例)的流量分发控制服务。包含两种含义:一是通过流量分发,扩展应用系统的服务能力;二是消除单点故障,提高应用系统的可用性。

应用场景
我们具体来看一看它的使用场景。
第一个使用场景的是用于高访问量的业务。
当你的应用访问量非常大,单台的服务器已经无法承载这个访问量的时候,就可以使用负载均衡,将流量分发到不同的服务器上去。
第二个场景是横向扩张系统。
当你已经使用了负载均衡,在业务有波动时可以在后端非常方便的添加和减少ECS来调整自己应用的服务能力。
第三个应用场景是消除单点故障。
当我们在使用负载均衡时,后端有多台ECS在同时工作的。一旦其中一台ECS上的应用发生了故障,那么负载均衡会通过一个健康检查的机制来及时的发现这个故障,并且能屏蔽对这台ECS的流量转发,然后将用户的请求转发到另一台正常工作的ECS实例上。
同城的容灾
阿里云负载均衡可以实现同地域多可用区之间同地域容灾,当主可用区出现故障是,可以在短时间内切换到另一备用可用区,以恢复服务能力。同时,主可用区恢复访问时,它会自动切换到主可用区。


跨地域容灾
跨地域容灾通过云解析做智能DNS,将域名解析到不同地域的负载均衡实例地址下,以实现全局负载均衡,当某个地域出现不可用时,暂停对应解析即可实现所有用户访问不受影响。

配置负载均衡
下面我们来演示一下负载均衡该如何去配置。
首先要做好准备工作,我们需要开通一台负载均衡实例和与负载均衡同一个地域的两台ECS服务器。

创建好以后,我们就可以在负载均衡的控制台看到这样一台实例了。
接下来,我们要给这个负载均衡创建一个监听。“监听”可以简单的理解为对应后端服务器里面的一个应用,比如一个网站我们来点击监听,然后点击添加监听。


假设我们的后端服务器里面有一个>

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13210588.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-21
下一篇 2023-06-21

发表评论

登录后才能评论

评论列表(0条)

保存