ELK 集群,腾讯云上的日志监控不用愁

2017-08-23 14:20:08 浏览数 (1)

导语:公司项目,越来越多的系统在计划上云。如何监控云上的系统运行,是每个系统上云的过程中都会碰到的一个问题。在这里,我们以公司的某个项目为例,向大家详细阐述该项目上云后的日志监控方案,详细讲解如何通过ELK集群,实现每天百G日志的监控。

此项目原本是一个包含众多业务流的一个 APP 监控系统,在迁移到腾讯云之后,希望接入更多的业务,日志监控压力也随之剧增,每天的日志数量将达到百 G 以上,为满足这个项目的日志监控需求,特意在腾讯云的 kubernetes(K8s) 上配置了一套 ELK 集群。

1.ELK 系统介绍

我们在 SNGAPM 项目这个配置的 ELK 系统主要包含四个部分 filebeat,logstash,elasticsearch 以及 kibana。其中

  • filebeat 主要负责日志的收集,能自动感知日志文件中增加的 log 条目。
  • logstash 主要负责日志文件的转发,并且在转发过程中对日志进行过滤和整理。
  • elasticsearch 可以看作一个高效的集群化的数据库,可以直接通过 url 对其进行访问,在 ELK 中,主要负责 ELK 的存储,也是整个ELK 系统的核心。
  • kibana 可以看作 elasticsearch 的一个前端页面,其将用户的操作转化为 elasticsearch 的查询指令,并将从 elasticsearch 查询到的数据进行图形化展示。

2. ELK 集群预览

在物理机上,可以通过多台服务器构建一个 ELK 的集群,在腾讯云上,配置 ELK 集群的另一种方式就是通过 kubernetes 管理一个包含多个 pods 的 ELK。

3. ELK 集群配置

集群化的 ELK 系统的关键就是配置集群化的 elasticsearch 系统,通过配置 elasticsearch 的集群,实现海量日志的存储,和快速查询。

配置 elasticsearch 集群,我们主要参考了 github 上的一个样例 kubernetes-elasticsearch-cluster。

我们将 elasticsearch 节点,分为 master, client, data 三种类型,分别负责不同的任务,其中

  • Master 节点 - 只复杂集群的管理,不存储日志数据,也不接受 HTTP 请求
  • Client 节点 - 主要负责接受 HTTP 请求,不存储日志数据
  • Data 节点 - 主要负责数据的存储,不接受 HTTP 请求

在这,我们给出我们的配置文件供大家参考和借鉴

首先,给出 elasticsearch 的集群配置方法

代码语言:txt复制
    
代码语言:txt复制
cluster:  
name: ${CLUSTER_NAME}  

node:  
master: ${NODE_MASTER}  
data: ${NODE_DATA}  
name: ${NODE_NAME}  
ingest: ${NODE_INGEST}  
max_local_storage_nodes: ${MAX_LOCAL_STORAGE_NODES}  

network.host: ${NETWORK_HOST}  

path:  
data: /***/***  
logs: /***/***  

bootstrap:  
memory_lock: true  

http:  
enabled: ${HTTP_ENABLE}  
compression: true  
	cors:  
enabled: ${HTTP_CORS_ENABLE}  
allow-origin: ${HTTP_CORS_ALLOW_ORIGIN}  

discovery:  
zen:  
ping.unicast.hosts: ${DISCOVERY_SERVICE}  
minimum_master_nodes: ${NUMBER_OF_MASTERS}

其次是配置 kibana,只需要提供 elasticsearch 的访问 url,就能直接与 elasticsearch 进行直接交互(如果配置了 x-pack 插件,还须提供相应的用户名以及密码才能访问)。

代码语言:txt复制
     
代码语言:txt复制
server.host: "0.0.0.0"  

elasticsearch.url: "http://elasticsearch.default.svc.cluster.local:9200"  

elasticsearch.username: "******"  
elasticsearch.password: "******"

最后是配置 logstash 以及 filebeat

在 filebeat 中设置日志文件的路径,并在输入的日志数据上加上标签,方便 logstash 对日志进行分类,对不同的日志类型进行不同的处理。

代码语言:txt复制
    
代码语言:txt复制
filebeat.prospectors:
- input_type: log
	paths:
		- /*****.log
		- /*****.log
	document_type: json_log
	tags: ["json-log", "itrans"]

output.logstash:
	hosts: ${LOGSTASH_HOSTS:?No logstash host configured. Use env var LOGSTASH_HOSTS to set hosts.}

logging.level: info
logging.files:
	path: /home
	name: filebeat.log

在这里,logstash 根据日志的标签,对不同类型的日志,执行不同的处理(如果配置了 x-pack 插件,还须提供相应的用户名以及密码才能访问)。

代码语言:txt复制
    
代码语言:txt复制
input {
		beats {
				port => 5043
				congestion_threshold => 60
		}
}

filter {
		if "json-log" in [tags] {
				json {
						source => "message"
						remove_field => [ "message"]
				}
				mutate {
						replace => { "type" => "json-log" }
				}
		}
}

output {
		if "json-log" in [tags] {
				elasticsearch {
						hosts => ["elasticsearch:9200"]
						manage_template => false
						index => "%{label}-%{ YYYY.MM.dd.HH}"
						user => ******
						password => ******
				}
		} else {
				elasticsearch {
						hosts => ["elasticsearch:9200"]
						manage_template => false
						index => "unlabeled-%{ YYYY.MM.dd.HH}"
						user => ******
						password => ******
				}
		}
}

4.在 Kubernetes 上运行所需的 yaml 文件

想要实现 ELK 集群在 Kubernetes 上的运行自然少不了相应的 yaml 文件,我们使用的 yaml 文件主要参考了 kubernetes-elk-cluster、kubernetes-elasticsearch-cluster等仓库。

0 人点赞