RPC的负载均衡

2024-09-07 21:45:08 浏览数 (1)

1 需求

流量高峰,突现线上服务可用率降低,排查发现,因其中有几台机器较旧。当时最早申请的一批容器配置较低,缩容时留下几台,当流量达到高峰,这几台容器因负载太高,扛不住压力。

业务部门问题:

当时方案:在治理平台调低这几台机器权重,访问流量就减少了。

但业务说:当他们发现服务可用率降低时,业务请求已受影响,再如此解决,需要时间,这段时间里业务可能已有损失。紧接提出需求:RPC框架有智能负载机制?能及时自动控制服务节点接收到的访问量?

需求合理,也是普遍问题。虽服务治理平台能动态控制线上服务节点接收的访问量,但当业务方发现部分机器负载过高或响应变慢时再调整节点权重,可能已影响线上服务可用率。

2 LB

当一个服务节点无法支撑现有访问量,会部署多节点组成集群。通过LB将请求分发给该集群下的节点,共同分担请求压力。

2.1 LB示意图

负载均衡主要分为:

2.2 软负载

在一或多台服务器安装LB软件,如LVS、Nginx。

2.3 硬负载

通过硬件设备实现的LB,如F5服务器。

LB算法主要有随机法、轮询法、最小连接法等。刚才介绍的LB主要应用在Web服务,Web服务的域名绑定LB的地址,通过LB将用户请求分发到一个个后端服务。

3 RPC LB V.S 传统Web服务LB

为啥不通过DNS实现“服务发现”?为啥不采用添加LB设备或TCP/IP四层代理,域名绑定LB设备的IP或四层代理IP的方式?

因为面临问题:

  1. 搭建LB设备或TCP/IP四层代理,需额外成本
  2. 请求流量都经过LB设备,多经过一次网络传输,额外浪费性能
  3. LB添加、摘除节点,一般要手动添加,当大批量扩容和下线时,会有大量人工操作,“服务发现”在操作上是问题
  4. 服务治理时,针对不同接口服务、服务的不同分组,LB策略需可配,如都经过这一LB设备,就不易根据不同场景配置不同LB策略

4 RPC的LB

全由RPC框架自身实现,RPC的服务调用者(后文简称为caller)会与“注册中心”下发的所有服务节点建立长连接,在每次发起RPC调用时,caller都会通过配置的负载均衡插件,自主选择一个服务节点,发起RPC调用请求。

4.1 RPC框架LB示意图

LB机制完全由RPC框架自身实现,不依赖任何LB设备,自然不会发生LB设备的单点问题,服务调用方的LB策略也可配,可通过控制权重,对LB进行治理。

咋动态、智能控制线上服务节点所接收到的请求流量?关键就在RPC框架的LB。设计一种自适应LB策略。

5 咋设计自适应的LB?

caller发起请求时,会通过配置的LB插件,自主选择服务节点。是不是只要调用者知道每个服务节点处理请求的能力,再依次判断要打给它多少流量就行了?

5.1 服务caller节点咋判定一个服务节点的处理能力?

采用打分策略,caller收集与之建立长连接的每个服务节点的指标数据,如:

  • 服务节点的负载指标
  • CPU核数
  • 内存大小
  • 请求处理的耗时指标(如请求平均耗时、TP99、TP999)
  • 服务节点的状态指标(如正常、亚健康)
  • ...

通过这些指标,计算出一个分数,如总分10分,若CPU负载达70%,就减它 3 分,当然了,具体减几分需要一个结合业务特点的计算策略。

5.2 咋根据指标打分?

年终考核专业能力、沟通能力和工作态度分别占比30%、30%、40%,我给一个员工评分10、8、8,那他综合分数计算:1030% 830% 8*40%=8.6分。

给服务节点打分一样,为每个指标都设置一个指标权重占比,然后再根据这些指标数据,计算分数。

Q:caller给每个服务节点都打分后,会发送请求,这时我们咋根据分数去控制给每个服务节点发送多少流量呢?

A:配合随机权重的LB策略去控制,通过最终指标分数修改服务节点最终权重。如给一个服务节点8分(满分10分),服务节点权重100,最终权重80(100*80%)。caller发请求时,通过随机权重策略选择服务节点,该节点接收到的流量就是其他正常节点的80%(这里假设其他节点默认权重都100,且指标正常,10分)。

5.3 自适应的LB整体设计方案

RPC自适应负载均衡示意图:

5.4 关键步骤

  1. 添加服务指标收集器,并将其作为插件,默认有运行时状态指标收集器、请求耗时指标收集器
  2. 运行时状态指标收集器收集服务节点CPU核数、CPU负载以及内存等指标,在caller与服务提供者(后文简称为provider)的心跳数据中获取
  3. 请求耗时指标收集器收集请求耗时数据,如平均耗时、TP99、TP999
  4. 可以配置开启哪些指标收集器,并设置这些参考指标的指标权重,再根据指标数据和指标权重来综合打分
  5. 通过服务节点的综合打分与节点的权重,最终计算出节点的最终权重,之后caller会根据随机权重的策略,来选择服务节点

6 总结

RPC框架不是依赖一个LB设备或LB服务器来实现LB,而是由RPC框架本身实现,caller可自主选择服务节点,发起服务调用:

  • RPC框架无需依赖专门LB设备,节约成本
  • 减少了与LB设备间额外的网络传输,提升传输效率
  • LB策略可配,便于服务治理

自适应LB,通过它,就能根据caller依赖的服务集群中每个节点的自身状态,智能控制发送给每个服务节点的请求流量,防止因某个服务节点负载过高、请求处理过慢而影响到整个服务集群的可用率。

自适应LB关键,就是调用端收集服务端每个节点的指标数据,再根据各方面指标数据计算打分,最后根据每个节点的分数,将更多流量打到分数较高的节点。

7 FAQ

Q:常用的LB算法?

A:以Dubbo为例说明

  • 基于权重随机算法(默认)
  • 基于最少活跃调用数算法
  • 基于 hash 一致性
  • 基于加权轮询算法(又分一般轮询和动态加权轮询)
  • 能力负载(根据响应时间,根据可用率等来动态智能调节)
  • 智能负载均衡策略,核心是及时

轮询算法、随机算法,编码简单,适用于集群中各节点提供服务能力等同且无状态的场景。两个方法将服务节点性能当成一样,但实际复杂环境,服务节点处能力不一。需要我们有比重地分发请求,于是加入权重属性,即有权重的随机算法、加权轮询算法。

若某服务节点异常,服务处理缓慢。轮询算法、随机算法还会持续将请求发分到服务节点,进一步加重服务节点情况。这是个较大缺点。

最少活跃调用数算法,记录服务节点的活跃数,活跃数越少,表明该provider效率越高,单位时间内可处理更多的请求,可有效改善上面的case。

哈希(又分一般哈希,一致性哈希、加虚拟节点的一致性哈希)。hash一致性算法,适用于服务有状态的的场景,但是实很少需要有状态的场景,该算法比较少使用。

Q:grpc官方并未提供服务发现注册的功能实现,但为不同语言的gRPC代码实现提供可扩展的命名解析和负载均衡接口。

A:基本原理:服务启动后,grpc客户端向命名服务器发名称解析请求,名称会解析为一或多个ip地址,每个ip地址会标识它是服务器地址还是负载均衡地址,以及标识要使用的那个客户端的负载均衡策略或服务配置。客户端实例化负载均衡策略,如解析返回的地址是负载均衡器的地址,则客户端将使用扩展的负载均衡策略,反之客户端使用服务器配置请求的负载均衡策略。负载均衡策略为每个服务器地址创建一个子通道,当有rpc请求时,负载均衡策略决定那个子通道即grpc服务器将接收请求,当可用服务器为空时客户端的请求将被阻塞。

  • 好处,灵活,支持扩展,可以扩展满足自己需求的策略
  • 缺点,需自己集成,对技术人员有一定的要求

Q:若系统包含一些处理时间较长的请求,如下载一个大数据量报表,这种请求会大大提高该provider平均请求耗时,而发现这种耗时会存在时延,caller仍发送了很多请求到该服务器,这种情况咋看?

A:可考虑背压。

Q:路由策略和负载均衡的结果都是选择一个合适的服务节点,这俩有啥区别?

A:路由一般是规则设定,一般都是路由之后,负载再生效。

Q:心跳检测,我理解是让服务提供方消耗少量的性能,来评估性能并判定是健康还是亚健康。后来说到有个检测服务专门做这件事,然后推给服务调用方。这里又说是caller直接心跳检测。若caller直接调用心跳检测,对caller来说检测及时。但对provider,随caller增多会增加性能损耗,若用注册中心,感知不及时。咋处理较好呢?

A:“冷暖自知”,caller比第三方更准确知道对方的状态。

Q:CPU 核数、CPU 负载以及内存等指标 有什么比较好的获取方式吗?计算每个服务节点的权重 这个是周期性统计计算然后在负载均衡器中更新吗?

A:周期实现起来,最简单,即定时任务。

Q:是不是每个RPC调用方,也就是客户端都存在一个智能LB?那就是每个RPC调用方都能掌握全局的负载信息,要不然无法做LB?其实还是对"负载均衡由RPC框架来做"不理解,这个RPC框架是每个RPC调用方都有一份吗?

A:LB一般都要内置在RPC里,用户也可进行扩展。

0 人点赞