高并发风控技术解密(下)

2018-05-25 19:36:35 浏览数 (1)

如何灵活高效的接入?

平台化

  •搭建平台而不是搭建项目——做一个“淘宝”而不是做只针对某几项业务的网站

  •从业务中抽象及通用——如果一种业务有可能在今后重复出现,那就将其模块化,系统化(如批处理系统),发展成为平台能力

动态化

  •流程动态化——不同的业务类型对应的流程可以随意调整,无须调整代码

  •代码动态化——采用groovy脚本动态调整线上代码,无须发版;规则配置除了使用各种灵活预配置外,还可以使用groovy脚本代码化规则;指标函数groovy化,不需要每次发版。

  •配置动态化——配置动态化可以考虑虚拟表的形式,通过虚拟表将任意表的结构存储到一个统一的表结构中去,从而完成配置的动态化,有些类似nosql的文档化思想。

如何降低响应时间提高吞吐量?

善用存储及缓存

  •配置数据加载到本地内存

  •频繁重复访问的数据放redis

  •数量较大稳定性要求较高的放hbase

  •需要快速搜索的明细数据放es

•需要解耦削峰的数据放kafka

如下图,不同的存储读取时间是有很大差别的,应当利用好各种存储,尽可能的用耗时小的存储

下图是hbase的一个基准性能测试,千万不要忽略hbase哦,它既能存取海量数据,又能以极短的时间响应,实在是风控系统性能提升的利器。目前的风控系统最重要的累积数据,就是基于hbase存取的

异步化

  •从系统架构层面,将可异步的代码尽量异步,但忌滥用异步

  下面是一个实际的例子,在压测过程中,发现CPU的sy和wa很高,大体可以判断是线程过多,并且浪费在线程切换,据观察,启用异步线程调用3个外部调用的耗时并不低,于是该分支线程等待时间过长,导致占用大量线程在等待IO,线程也频繁切换。

基于动态流程配置,将主系统中3个外部调用合并为一个之后,sy和wa大大降低,不再出现被压垮的情况,而被合并的剩下两个调用,放到kafka解耦之后继续调用。

  单机TPS 2,644.6->3,079

    单机平均响应时间149.3->126.03

  •日志打印异步化--log4j2 all async,大大提高吞吐

  日志对于TPS的影响绝对无法忽视,曾试过禁止打印所有日志,系统TPS直接从3000飙升到4200。

如果不打印日志,线上系统就没法运维。在风控系统里,日志是很重要的排查工具和手段。log4j2的出现,就是为了大吞吐打印日志的,其中all async实现全异步打印,中间用到了disruptor来提速,至于disruptor为什么快,参考之前的文章高并发风控技术解密(上)

  单机TPS 3,079 ->3,686.1

    单机平均响应时间126.03->79.35

  •降低线程数量,从而降低系统cpu时间,异步网络调用--netty的客户端应用

  为保障主线程的吞吐和执行时间,经常需要把网络调用异步化,一些重要的异步化网络调用也需要占用线程池中大量线程,线程数量一多,sy就居高不下,既浪费cpu,又会导致整个tps全线崩溃。

采用nio的netty客户端无疑是解决这个问题的利器。如下图,左边是每个线程一个连接等待,耗费大量线程在等待,会导致sy和wa提升,采用基于netty框架的客户端之后,将连接线程限制到一个很小的数目,而回调的业务线程也会保持在一个较小范围并且保持忙的状态,而不是把时间耗费在sy和wa上

  •用好线程池,保持系统稳定

线程池实际上是保持系统稳定的重要方式,保持资源在一个可控的范围内而不是无限制的增加资源压垮机器,这点尤为重要。

如何应对大数据?

增量化思维

  •问题:需要从原始表计算到结果表,由于增量的结果表无法被复用,只能每天计算全量的结果表,计算任务看似巨大(计算任务为182小时)

  •解决:将每次需要全量计算转化为:每次增量计算到明细表,再从明细表全量计算到结果表(实际计算第一次跑得较慢,后续每次跑只需要几小时)

海量关联关系查询

•问题:在关联关系查询中,经常从几个简单的关联查到大量数据,如何处理大量数据,将其排序,分页,供人工调查?

  •解决:利用es多次查询,redis缓存分页信息。算法很简单,实际过程会遇到很多问题,比如ip关联出来经常是海量数据,数据查询会超时,后续查询更加庞大。一些小技巧是:数据尽早剪枝;业务查询限制,如限制查询时间;ES的多重查询,可以一次性将数据作为查询条件输入。分布式的TOPK问题比较有意思,ES的原理中阐述了这一点,有兴趣的人可以研究

另一种方式是将关系直接存储为图,即顶点和边关系,查询时将极其简单,这方便的代表是图数据库neo4j,由于存储需要再导入,因此并未做深入研究,同样供有兴趣的同学参考

如何保持系统稳定性?

限流

  •大促期间如遇大流量可以针对业务渠道限流开关推送标志以限流

降级

  •在高峰期间将一些运营查询相关的需求停止,减小数据系统负担,并调度到半夜12点继续查询

预案

  •每次大促前都得准备预案。预案需要准备各种极端失败情况,确保失败时不手忙脚乱

0 人点赞