Fluentd输出插件:out_elasticsearch用法详解

2020-12-22 09:49:02 浏览数 (1)

把日志输出到elasticsearch做业务分析,这大概是最普遍的日志采集用途了

out_elasticsearch 输出插件用于将日志记录写入elasticsearch。


缺省情况下,它使用的是 elasticsearch 的 bulk api,这表示out_elasticsearch会在单次 api 调用中同时操作 elasticsearch 上的多个索引。

这样做的好处是可以减少系统资源调用,显著提升索引速度。

同时也意味着,如果你首次使用这个插件输出日志,日志不会立即被推送到 elasticsearch。

当<buffer>指令中 chunk_keys 设置的条件达到时,日志记录将会被发送到 elasticsearch。

可以通过设置 chunk_keys 中的 time 和 time_key 参数来调整插件输出日志的频率。

chunk_key 的设置请参考:Fluentd配置:缓存(Buffer)配置项 。


【安装方法】

如果你使用的是 td-agent v3.0.1及更高版本,out_elasticsearch 插件已打包在 td-agent 的安装包中,无需手动安装。

如果不是通过 td-agent 安装的 Fluentd,可使用 fluent-gem 来安装 out-elasticsearch。

代码语言:javascript复制
$ fluent-gem install fluent-plugin-elasticsearch

【配置示例】

此处给出一个极简的配置片段,能满足大多数用户上手使用。

代码语言:javascript复制
<match my.logs>
  @type elasticsearch
  host localhost
  port 9200
  logstash_format true
</match>

【插件参数】

@type

host

port

hosts

代码语言:javascript复制
hosts host1:port1,host2:port2,host3:port3
# or
hosts https://customhost.com:443/path,https://username:password@host-failover.com:443

user, password

代码语言:javascript复制
user fluent
password mysecret

schema

index_name

此参数支持使用占位符。

代码语言:javascript复制
index_name fluentd.${tag}
代码语言:javascript复制
index_name fluentd.${tag}.%Y%m%d
代码语言:javascript复制
<buffer tag, time>
  timekey 1h # chunks per hours ("3600" also available)
</buffer>

logstash_format

缺省为 false,不使用。

logstash_prefix


【其他杂项】

可使用 %{} 格式的占位符来转义需要进行 URL 编码的字符。

以下为合法配置:

代码语言:javascript复制
user %{demo }
password %{@secret}
代码语言:javascript复制
hosts https://%{j hn}:%{passw@rd}@host1:443/elastic/,http://host2

以下为非法配置:

代码语言:javascript复制
user demo 
password @secret

【常见问题】

无法向 elasticsearch 发送日志事件

比如,当前的 td-agent 绑定的是 6.x 系列的 elasticsearch-ruby 库,这意味着你的 elasticsearch 服务器的版本也应该是 6.x 。

代码语言:javascript复制
# For td-agent users
$ /usr/sbin/td-agent-gem list elasticsearch
# For standalone Fluentd users
$ fluent-gem list elasticsearch
代码语言:javascript复制
validate_client_version true
代码语言:javascript复制
Detected ES 5 but you use ES client 6.1.0.
Please consider to use 5.x series ES client.

无法看到详细的失败日志

由于历史原因,out_elasticsearch 配置的 ssl_version 是 TLSv1,而现代 elasticsearch 生态要求 TLSv1.2或更高版本。

可通过以下配置开启传输日志:

这样,你就会看到如下的失败日志:

这种情况也会发生在使用了反向代理的场景中。


为何非法日志总是被无限重复处理?

代码语言:javascript复制
<match **>
  @type elasticsearch
  host localhost
  port 9200
  type_name fluentd
  logstash_format true
  time_key @timestamp
  include_timestamp true
  reconnect_on_error true
  reload_on_failure true
  reload_connections false
  request_timeout 120s
</match>

如果使用泛型匹配,则错误日志会被重新提交到 out_elasticsearch 插件的处理流程中,不断重复,造成洪泛现象。

代码语言:javascript复制
2018-11-13 11:16:27  0000 [warn]: #0 dump an error event: error_class=Fluent::Plugin::ElasticsearchErrorHandler::ElasticsearchError error="400 - Rejected by Elasticsearch" location=nil tag="app.fluentcat" time=2018-11-13 11:16:17.492985640  0000 record={"message"=>"xFFxAD"}
2018-11-13 11:16:38  0000 [warn]: #0 dump an error event: error_class=Fluent::Plugin::ElasticsearchErrorHandler::ElasticsearchError error="400 - Rejected by Elasticsearch" location=nil tag="fluent.warn" time=2018-11-13 11:16:27.978851140  0000 record={"error"=>"#<Fluent::Plugin::ElasticsearchErrorHandler::ElasticsearchError: 400 - Rejected by Elasticsearch>", "location"=>nil, "tag"=>"app.fluentcat", "time"=>2018-11-13 11:16:17.492985640  0000, "record"=>{"message"=>"xFFxAD"}, "message"=>"dump an error event: error_class=Fluent::Plugin::ElasticsearchErrorHandler::ElasticsearchError error="400 - Rejected by Elasticsearch" location=nil tag="app.fluentcat" time=2018-11-13 11:16:17.492985640  0000 record={"message"=>"\xFF\xAD"}"}

我们可以通过以下两种方法解决这个问题:

代码语言:javascript复制
<match out.elasticsearch.**>
  @type elasticsearch
  host localhost
  port 9200
  type_name fluentd
  logstash_format true
  time_key @timestamp
  include_timestamp true
  reconnect_on_error true
  reload_on_failure true
  reload_connections false
  request_timeout 120s
</match>

2,使用 @label 进行事件路由


out_elasticsearch 插件支持很多配置参数,本文只是介绍了其中几个。

0 人点赞