Enrich Processor——Elasticsearch 跨索引关联数据新方式

2021-12-28 10:38:35 浏览数 (1)

1、实战项目需求

需求1:有一个小需求

kafka源数据:

代码语言:javascript复制
topicA:{"A_content":"XXX","name":"A","type":"XXX","id":1}
topicB:{"B_content":"XXX","name":"B","type":"XXX","id":1}

现在想将两个topic的数据写到同一个es索引中,但由于更新性能太慢,有啥思路可以加速写入性能呢(topicA和topicB的数据可能会有几天的延时)?

需求2:

在cluster1上有如a,b两索引,均有字段filed_a,索引a,b各自包含其它字段,建立新索引如c,要求c包含a索引全部文档,且在a和b索引关联字段 field_a 相同的文档中把b文档其它字段更新到索引c中。

2、需求分析

如上两个需求都涉及两个索引数据之间的关联。

提到数据关联或者多表关联,我们都能想到的是四种多表关联核心实现:

  • 宽表,特点:空间换时间。
  • Nested 嵌套文档,特点:适合于子文档更新不频繁场景。
  • Join 父子文档,特点:适合于子文档频繁更新的场景。
  • 业务层面自己实现,特点:灵活自控。

以上四种都无法实现上述需求涉及的问题。

需求2的本质是:跨索引相同字段关联扩充字段实现。

在 7.5 版本的 ingest 预处理环节新增了enrich processer 字段丰富功能,能很好的实现上述需求。

2、enrich processor 解读

2.1 enrich processor 全局认知

全局来看:enrich processor 是 ingest 预处理管道中众多 processors中的一个。

2.2 enrich processor 最早发布版本

如前所述,Elasticsearch 7.5 版本后新增了该项功能。

2.3 enrich processor 定义

enrich:中文可以翻译成丰富,本质也可以理解:“使丰富”的意思。

借助 enrich 预处理管道,可以将已有索引中的数据添加到新写入的文档中。

官方举例如下:

  • 根据已知 IP 添加 web 服务或供应商。
  • 根据产品 ID 添加零售订单。
  • 根据电子邮件补充添加联系信息。
  • 根据用户地址添加邮政编码。

2.4 非 enrich processor 工作原理

为了对比,我们先讲一下:非 enrich processor 的工作原理。

非 enrich 的预处理管道都相对“简单、直白”,如下图所示:

图片来自:Elastic官方文档

新写入的文档中间经过预处理管道预处理实现了数据的 ETL 清洗后写入到目标索引中。

中间的 ETL 清洗包含但不限于:trim、drop、append、foreach等管道处理方式。

2.5 enrich processor 工作原理

区别于非 enrich processor 的“直来直去”,enrich processor 在预处理管道中间加了“秘制配方”。

图片来自:Elastic官方文档

加了什么呢?

多了:enrich policy。

大家可以回想一下,上一次您在 Elasticsearch 中听到 policy 是在什么时候?

在 ILM 索引生命周期管理里面 policy 实际是阶段 phrase 和动作 action 的综合体。

而 enrich 数据预处理环节,enrich 的组成有哪些呢?

2.5.1 enrich policy

对应上图中中间虚线框的圆圈部分,先上例子,建立下直观的认知。

代码语言:javascript复制

PUT /_enrich/policy/data-policy
{
  "match": {
    "indices": "index_test_b",
    "match_field": "field_a",
    "enrich_fields": [
      "author",
      "publisher"
    ]
  }
}
  • indices:一个或多个源索引的列表,存储的是待 enrich 扩展的数据。
  • match:policy 类型,除了传统的match类型,还有应用于地理位置场景的:geo_match。
  • match_field:源索引中用于匹配传入文档的匹配字段。
  • enrich_field:源索引中的字段列表,用于添加到新传入的文档中。
2.5.2 source index 源索引

用于丰富新写入文档 (incoming documents)的索引。

它是目标索引中添加的待丰富数据的源头索引。没有了它,enrich 将无从谈起。

2.5.3 enrich index 丰富索引

这是一个咱们从来没有见过的新概念,有必要详细解读一下。

enrich index 是执行 enrich policy 生成的索引。

执行命令如下:

代码语言:javascript复制
POST /_enrich/policy/data-policy/_execute

enrich index 特点如下:

  • elasticsearch 内部管理的系统级索引。
  • 目的很“单一”——仅用于 enrich processor。
  • 以 .enrich-* 开头。
  • 只读,不支持人为修改。

get 索引会有说明禁止修改

更新索引报错如上

  • 会被强制段合并,以实现快速检索。

这时候,读者可能会有疑问:直接用 source 索引不香吗?费那劲干啥?

原因:直接将传入文档与源索引中的文档进行匹配可能会很慢且需要大量资源。

为了加快速度,enrich 索引应运而生。

如果再引申的话,source 源索引可能会有大量的增删改查操作,而 enrich 一经创建,便不允许更改。

除非进行重新执行 policy。

2.6 enrich processor 适用场景

  • 日志场景
  • 其他需要预处理跨索引丰富数据的场景

2.7 enrich processor 性能问题

enrich processor 执行多项操作,可能会影响 ingest 管道的速度。

官方强烈建议在将 enrich process 部署到生产环境之前对其进行测试和基准测试。

官方不建议使用 enrich 处理器来 enrich (丰富)实时数据。enrich processor 最适合不经常更改的索引数据类型。

3、enrich processor 实战解读

针对文章开头的需求1、需求2:传统的索引之间的关联方式都不能解决问题。

核心实现步骤如下图所示:

借助 enrich processor 实现解读如下:

如下各个步骤和上图一一对应。

3.1 第一步:创建初始索引

代码语言:javascript复制
DELETE index_test_a
PUT index_test_a
{
  "mappings":{
    "properties":{
      "field_a":{
        "type":"keyword"
      },
      "title":{
        "type":"keyword"
      },
      "publish_time":{
        "type":"date"
      }
    }
  }
}

POST index_test_a/_bulk
{"index":{"_id":1}}
{"field_a":"aaa", "title":"elasticsearch in action", "publish_time":"2017-07-01T00:00:00"}


DELETE index_test_b


PUT index_test_b
{
  "mappings": {
    "properties": {
      "field_a": {
        "type": "keyword"
      },
      "author": {
        "type": "keyword"
      },
      "publisher": {
        "type": "keyword"
      }
    }
  }
}

POST index_test_b/_bulk
{"index":{"_id":1}}
{"field_a":"aaa", "author":"jerry", "publisher":"Tsinghua"}

3.2 第二步:创建data-policy

代码语言:javascript复制
DELETE _enrich/policy/data-policy
PUT /_enrich/policy/data-policy
{
  "match": {
    "indices": "index_test_b",
    "match_field": "field_a",
    "enrich_fields": ["author","publisher"]
  }
}

3.3 第三步:执行data-policy

代码语言:javascript复制
POST /_enrich/policy/data-policy/_execute

3.4 第四步:创建 pipeline

代码语言:javascript复制
DELETE /_ingest/pipeline/data_lookup
PUT /_ingest/pipeline/data_lookup
{
  "processors": [
    {
      "enrich": {
        "policy_name": "data-policy",
        "field": "field_a",
        "target_field": "field_from_bindex",
        "max_matches": "1"
      }
    },
    {
      "append": {
        "field": "author",
        "value": "{{field_from_bindex.author}}"
      }
    },
    {
      "append": {
        "field": "publisher",
        "value": "{{field_from_bindex.publisher}}"
      }
    },
    {
      "remove": {
        "field": "field_from_bindex"
      }
    }
  ]
}
  • enrich processor:实现了将 b 索引的 field_a 相关联数据,和新写入索引数据融合,使得新索引“丰富”。
  • append processor:实现了字段修改。
  • remove processor:实现了删除不需要的中间字段数据。

3.5 第5步:reindex 索引

代码语言:javascript复制
DELETE index_test_c
POST _reindex
{
  "source": {
    "index": "index_test_a"
  },
  "dest": {
    "index": "index_test_c",
    "pipeline": "data_lookup"
  }
}

3.6 第6步:检索结果

代码语言:javascript复制
GET index_test_c/_search

最终结果数据如下截图所示:

索引 c 实现了索引 a 和 索引 b 的融合,索引c 变得“丰富”。

4、小结

新的功能或者新的概念的产生是基于特定的业务需求,追根溯源 enrich processor 起源于如下的 bug 或 新需求:

https://github.com/elastic/elasticsearch/issues/32789

最早版本的这张图:

更能够说明:enrich processor 的本质。

一句话:新写入的文档通过 enrich processor 达到了跨索引丰富数据的目的,最终写入目标索引。

而丰富数据的实现是借助:enrich policy 将源索引 source orgin data 生成系统只读索引 enrich index 实现的。

本文的 enrich processor 预处理可以算作跨索引处理数据的扩展。

希望本文的解读,对于您理解 Elasticsearch 跨索引关联数据有所帮助!

也欢迎留言交流您对 enrich processor 的看法。

参考

https://www.elastic.co/guide/en/elasticsearch/reference/current/ingest-enriching-data.html

https://www.alibabacloud.com/blog/how-do-we-use-an-ingest-node-in-elasticsearch-to-enrich-logs-and-metrics_597453

https://www.elastic.co/cn/blog/introducing-the-enrich-processor-for-elasticsearch-ingest-nodes

0 人点赞