后端设置token作用域

后端设置token作用域,第1张

1token概述
专业版:基于token的身份验证是无状态的,我们不将用户信息存放在服务器中,因为无论怎么样存储,总是很多的弊端
例如
不同服务器访问
或者存储的服务器出现异常
或者说一个服务器存储过多压力大
利用不同服务器存储,服务器之间的同步问题
所以,token这种概念解决了存放在服务端的许多问题,NoSession意味着你的程序可以根据需要去增减机器,而不用担心用户是否登录
简易版:简单来说,这个token就是用于存储用户的ip地址,通过ip地址去代替了原来的session,从而达到免密登录的效果
2token的实现流程
首先,第一次登录时,后端从前端的输入框中获取信息,调取数据库的信息验证是否成功。如果校验成功,通过用户的ip地址生成一个token,返回token给到服务器。
第二次登录时,请求AIP携带的token,调取过滤器,校验token是否正确:若校验通过,返回请求数据,无需登录。若校验错误,返回错误码,调取登录页面。

h5好像只是前端吧,使用>

后端需要看你使用的什么语言编写的,java的通常就是java-jar命令,nodejs的也是使用对应的node命令启动后端服务。

一、负载均衡的作用

1、转发功能

按照一定的算法权重、轮询,将客户端请求转发到不同应用服务器上,减轻单个服务器压力,提高系统并发量。

2、故障移除

通过心跳检测的方式,判断应用服务器当前是否可以正常工作,如果服务器期宕掉,自动将请求发送到其他应用服务器。

3、恢复添加

如检测到发生故障的应用服务器恢复工作,自动将其添加到处理用户请求队伍中。

二、Nginx实现负载均衡

1、源地址哈希法:根据获取客户端的IP地址,通过哈希函数计算得到一个数值,用该数值对服务器列表的大小进行取模运算,得到的结果便是客服端要访问服务器的序号。采用源地址哈希法进行负载均衡,同一IP地址的客户端,当后端服务器列表不变时,它每次都会映射到同一台后端服务器进行访问。

2、轮询法:将请求按顺序轮流地分配到后端服务器上,它均衡地对待后端的每一台服务器,而不关心服务器实际的连接数和当前的系统负载。

3、随机法:通过系统的随机算法,根据后端服务器的列表大小值来随机选取其中的一台服务器进行访问。

4、加权轮询法:不同的后端服务器可能机器的配置和当前系统的负载并不相同,因此它们的抗压能力也不相同。给配置高、负载低的机器配置更高的权重,让其处理更多的请;而配置低、负载高的机器,给其分配较低的权重,降低其系统负载,加权轮询能很好地处理这一问题,并将请求顺序且按照权重分配到后端。

5、加权随机法:与加权轮询法一样,加权随机法也根据后端机器的配置,系统的负载分配不同的权重。不同的是,它是按照权重随机请求后端服务器,而非顺序。

6、最小连接数法:由于后端服务器的配置不尽相同,对于请求的处理有快有慢,最小连接数法根据后端服务器当前的连接情况,动态地选取其中当前积压连接数最少的一台服务器来处理当前的请求,尽可能地提高后端服务的利用效率,将负责合理地分流到每一台服务器。

三、配置说明
四、轮询
五、权重
六、iphash
七、最少链接
八、fair
九、完整代码
十、也可以使用域名

虚拟化,如exsi67---vSphere针对机器学习和AI工作负载优化(简单理解,传统服务器,无论

CPU与GPU,都有限的,最高配置,也有速度限的,,而虚拟化,就是将N台机的资源整合,所有机器都可调配,优化所有性能,将N台机合一使用。。。。)

我们在解藕了计算资源,存储资源,网络资源后,新的应用场景,例如大数据,AI,ML需要新的算力技术,比如GPU。在vSphere 7之前或者说在目前市场上的AI/ML算力解决方案中都是将GPU的算力和CPU

vSphere 7集成了VMware前期收购的Bitfusion,解决方案是将GPU/FPGA等AI/ML资源池化置于计算资源后端,计算资源需要AI相关算力时,通过网络灵活可力度调度后端AI算力资源

基于vSphere针对机器学习和AI工作负载优化

像ML和AI这样的现代应用程序需要计算加速来处理大型和复杂的计算。vSphere利用功能强大的加速来处理VM或容器中的工作负载。基础结构也可以用于某些HPC工作负载。

整合和共享硬件加速

轻松确定未充分利用的孤立且昂贵的资源。不论位置如何,都可以远程(全部或部分)共享硬件加速。GPU资源的切分也变得灵活

现在和将来扩展

在整个基础架构中利用GPU,并使用同一基础架构集成不断发展的技术,例如FPGA和定制ASIC。


求上使用得最多的>

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10332884.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-07
下一篇 2023-05-07

发表评论

登录后才能评论

评论列表(0条)

保存