负载均衡是什么,负载均衡有什么作用

2024-01-26 13:49:32 浏览数 (1)

一、什么是负载均衡

负载均衡是一种在计算机网络和系统架构中使用的技术,用于均衡分发工作负载到多个资源,比如:服务器、计算节点或存储设备上,以提高系统的性能、可伸缩性。

在传统的单个服务器架构中,当请求量增加时,单个服务器可能无法处理所有的请求,导致性能下降或系统崩溃。

负载均衡技术通过将负载(请求)分发到多个服务器上,实现资源的合理利用,从而平衡服务器的负载。

这样可以提高系统的处理能力,增加并发处理能力,并减少单点故障的风险。

二、负载均衡作用

负载均衡的作用,主要包含如下几点:

1.提高系统性能

负载均衡技术将负载(请求或任务)分发到多个资源上,使得系统能够处理更多的并发请求,从而提高整体的处理能力和性能。

2.实现高可用性

负载均衡可以将负载分发到多个资源上,当其中一个资源发生故障或不可用时,负载均衡可以自动将请求转发到其他可用的资源。

这样可以降低单点故障的风险,提高系统的可靠性和容错性。

3.提高系统可伸缩性

随着业务的增长,负载均衡技术可以动态地增加或减少资源的数量,根据实际负载情况进行扩展或收缩。

通过自动分配负载到新增的资源上,系统可以实现水平扩展,满足不断增长的需求,提高系统的可伸缩性。

4.优化资源利用

负载均衡技术可以根据资源的性能、可用性和负载情况,合理地分配请求或任务。

这样可以最大限度地利用资源,避免资源的空闲或过载,提高资源的利用率和效率。

三、负载均衡的原理

系统的扩展可分为纵向(垂直)扩展和横向(水平)扩展。

比如:纵向扩展,是从单机的角度通过增加硬件处理能力,比如CPU处理能力,内存容量,磁盘等方面,实现服务器处理能力的提升。这种情况,不能满足大型分布式系统(网站),大流量,高并发,海量数据的问题。

因此需要采用横向扩展的方式,通过添加机器来满足大型网站服务的处理能力,比如:一台机器不能满足,则增加两台或者多台机器,共同承担访问压力。

负载均衡器作为一个中间层,接收来自客户端的请求,并根据特定的算法和策略将请求分发给后端的多个资源(如服务器、计算节点或存储设备)。客户端可以直接将请求发送给负载均衡器,或通过域名解析、DNS等方式间接连接到负载均衡器。

四、负载均衡算法

负载均衡算法,主要分为如下5类:

1.Round Robin-轮询

轮询,顾名思义,把请求按顺序分配给每个服务器,然后重复执行这个顺序,进行请求分配。

假设有3台服务器,分别为A,B,C,当客户端有请求过来时,请求会按照A——>B——>C——>A——>B——>C...这种轮训的顺序分配给各个服务器。

原理:

服务器列表:维护一个服务器列表,有服务器加入/剔除时,相应的更新服务器列表;

服务器游标:记录需要处理下一个请求的服务器;

请求分发:新的请求到达,选择当前服务器来处理该请求,然后服务器游标 1;

循环:不断重复步骤三,以确保每个服务器都有机会处理请求;

2.Weighted Round Robin - 加权轮询

在轮询的基础上根据硬件配置不同,按权重分发到不同的服务器,适合场景:跟配置高、负载低的机器分配更高的权重,使其能处理更多的请求。

3.最少连接数

记录每个服务器正在处理的请求数,把新的请求分发到最少连接的服务器上,因为要维护内部状态不推荐。

原理

维护一个所有服务器和连接数的字典(Map);

当新的请求到达时,负载均衡器会检查服务器列表中当前连接数最少的服务器;

请求将被分配给具有最少连接数的服务器,处理请求后该服务器的连接数 1;

如果有多台服务器具有相同的最小连接数,算法可以使用其他标准来选择其中一台,如加权等

优缺点

优点:

动态负载均衡:它根据服务器的当前负载情况来做出决策,这使得它能够有效地分配请求给当前连接数最少的服务器,从而确保了服务器资源的最佳利用。

适应性强:这个算法适用于服务器性能不均匀的情况,因为它关注的是连接数,而不是服务器的硬件配置或性能评估。

避免过载:通过将新请求分配给连接数最少的服务器,”最小连接数”算法有助于防止某些服务器被过度加载,从而提高了系统的稳定性和性能。

自动恢复:如果某台服务器由于故障或重启而导致连接数清零,该算法会自动开始将新请求分配给该服务器,以实现自动恢复。

缺点:

连接数不一定代表负载:”最小连接数”算法假设连接数与服务器的负载成正比,但这并不总是准确。有时候,某台服务器的连接数可能很高,但仍然能够处理更多的请求,而另一台连接数较低的服务器可能已经达到了其性能极限。

不适用于长连接:如果服务器上有大量长期活跃的连接,例如WebSocket连接,该算法可能不太适用,因为长连接不同于短暂的HTTP请求,连接数的统计可能会产生误导。

无法解决服务器性能差异:虽然”最小连接数”算法可以平衡连接数,但它无法解决服务器硬件性能差异的问题。在这种情况下,可能需要其他负载均衡算法,如加权轮询,来更好地适应性能差异。

4.IP/URL Hash-IP/URL散列

IP/URL 散列算法是一种根据客户端 IP 地址或 URL 来分配请求的负载均衡算法,这样相同的IP或者URL就会负载到相同的服务器上。

原理

将客户端 IP 地址或 URL 散列到服务器列表中,

然后将请求分配给散列值对应的服务器。

优缺点

优点:

稳定性:IP/URL Hash 算法可以确保相同的客户端请求总是被分发到相同的服务器上。这可以提高应用程序的稳定性,因为客户端的会话数据在同一服务器上保持一致。

适用于会话保持:当应用程序需要在多次请求之间保持会话状态时,IP/URL Hash 算法非常有用。客户端在一次请求中选择的服务器会在后续请求中保持一致,确保会话数据不会丢失。

负载均衡:IP/URL Hash 算法可以将特定的客户端请求均匀地分配到多个服务器上,从而实现基本的负载均衡,避免了某些服务器被过度请求。

缺点:

不适用于动态环境:IP/URL Hash 算法基于客户端的 IP 地址或 URL,一旦客户端 IP 或请求的 URL 发生变化,请求可能会被分配到不同的服务器上,导致会话数据丢失或不一致。

不考虑服务器负载:IP/URL Hash 算法不考虑服务器的当前负载情况。如果某个服务器的负载过高,IP/URL Hash 无法动态地将请求分发到负载较低的服务器上。

适用场景

静态环境:在静态环境中,即客户端的 IP 地址或请求的 URL 不经常变化的情况下,IP/URL Hash 算法可以提供稳定的负载均衡。

少数服务器的负载均衡:当服务器数量相对较少且不太容易动态扩展时,IP/URL Hash 算法可以用于基本的负载均衡。

5.Least Response Time - 最短响应时间

最短响应时间就是指:处理请求的响应时间最少的服务器,获取的请求就越多。直白讲就是速度快,就干的多。

适用场景

负载均衡的所有服务器,处理能力相差比较大。比如:有3台服务器,服务器A(4C8G,4个CPU,8G内存),服务器B(2C4G,2个CPU,4G内存),服务器C(1C2G,1个CPU,2G内存), 那么就可以采用这种算法,这样可以根据服务器的处理来实现动态负载。

交通控制系统:在城市交通控制系统中,需要及时响应交通信号、路况和车辆检测等信息。最短响应时间算法可以帮助确保交通信号及时适应交通流量的变化。

优缺点

优点:可以充分发挥各个服务器的性能,提高服务器的利用率。

缺点:饥饿问题。比如,服务器A的性能最好,处理速度最快,那么所有的请求都会被分配到服务器A,这样服务器B和服务器C就会一直处于饥饿状态,无法处理请求。这样也就会产生不公平。

0 人点赞