PostgreSQL技术大讲堂 - 第34讲:调优工具pgBagder部署

2023-11-16 14:27:33 浏览数 (3)

PostgreSQL从小白到专家,是从入门逐渐能力提升的一个系列教程,内容包括对PG基础的认知、包括安装使用、包括角色权限、包括维护管理、、等内容,希望对热爱PG、学习PG的同学们有帮助,欢迎持续关注CUUG PG技术大讲堂。

第34讲:调优工具pgBagder部署

内容1 : 日志分析器pgBadger简介

内容2 : pgBadger部署

内容3 : 如何产生类似于AWR报告

内容4 : 基于:一小时、一天、一周、一月的报告

内容5 :  如何分析pgBadger

第34讲:调优工具pgBagder部署

pgBadger简介

pgBadger是一个PostgreSQL日志分析器,它是为提高速度而构建的,具有来自PostgreSQL日志文件的完整报告。它是一个小型的Perl脚本,性能优于任何其他PostgreSQL日志分析器。

pgBadger可以自动检测日志文件格式(syslog、stderr、csvlog或jsonlog)。它被设计用来解析巨大的日志文件和压缩文件。支持的压缩格式有gzip、bzip2、lz4、xz、zip和zstd。

还可以使用命令行选项将pgBadger限制为仅报告错误或删除报告的任何部分。

pgBadger支持在postgresql.conf文件中通过log_line_prefix 自定义的任何格式,只要它至少指定%t和%p模式。

pgBadger允许通过使用指定CPU数量的-j选项并行处理单个日志文件或多个文件。

如果要保存系统性能,也可以使用log_duration 替代log_min_duration_statement来仅报告持续时间和查询数。

pgBadger特性

· pgBadger报告有关SQL查询的所有信息:

总体统计数据。

等待最频繁的查询。

等待时间最长的查询。

生成最多临时文件的查询。

生成最大临时文件的查询。

最慢的查询。

占用时间最多的查询。

最频繁的查询。

最常见的错误。

查询时间直方图。

会话时间柱状图。

参与热门查询的用户。

顶级查询中涉及的应用程序。

产生最多取消的查询。

查询大部分被取消。

最耗时的准备/绑定查询。

· 还提供分为五分钟的小时图表

SQL查询统计信息。

临时文件统计。

检查点统计。

自动真空和自动分析统计数据。

取消的查询。

错误事件(死机、致命、错误和警告)。

错误类分布。

· 一些关于分布的饼图:

锁定统计信息。

按类型查询(选择/插入/更新/删除)。

每个数据库/应用程序的查询类型分布。

每个数据库/用户/客户端/应用程序的会话数。

每个数据库/用户/客户端/应用程序的连接数。

根据表格自动真空和自动分析。

每个用户的查询数和每个用户的总持续时间。

所有图表都是可缩放的,可以保存为PNG图像。报告的SQL查询将自动突出显示和美化。

· 可以解析PgBouncer日志文件并创建以下报告

请求吞吐量

字节I/O吞吐量

查询平均持续时间

同时举行的会议

会话时间柱状图

每个数据库的会话数

每个用户的会话数

每个主机的会话数

已建立的联系

每个数据库的连接数

每个用户的连接数

每个主机的连接数

使用最多的保留池

最常见错误/事件

pgBadger报告模式

· pgBadger报告模式

一小时一个报告

每天一个报告

每周一个累积报告的增量报告

每月一个报告

多个进程处理一个日志

多个进程处理多个日志

pgBadger部署

· 官方下载地址

https://github.com/darold/pgbadger/releases

· 编译与安装(root用户)

1、解压后进入该安装目录

# unzip pgbadger-master.zip

# cd pgbadger-master

2、编译并安装:

# perl Makefile.PL

# make && make install

3、默认安装目录:

/usr/local/bin/pgbadger

postgresql.conf配置

logging_collector = on

log_directory = 'pg_log‘

log_checkpoints = on

log_connections = on

log_disconnections = on

log_lock_waits = on

log_temp_files = 0

log_autovacuum_min_duration = 0

log_rotation_size=10240

--例如,对于“stderr”日志格式,日志行前缀必须至少为:

log_line_prefix = '%t [%p]: '

--日志行前缀可以添加用户、数据库名称、应用程序名称和客户端ip地址,如下所示:

log_line_prefix = '%t [%p]: user=%u,db=%d,app=%a,client=%h '

--或者对于syslog日志文件格式:

log_line_prefix = 'user=%u,db=%d,app=%a,client=%h '

--日志消息支持英文,不支持中文:

lc_messages='en_US.UTF-8'

lc_messages='C‘

--记录的日志语句

假如:log_statement=all

则:不会使用(log_min_duration_statement)记录任何内容

所以:log_min_duration_statement=0 #记录所有的统计信息包含实际的查询字符串

警告:不要同时启用log_min_duration_statement、log_duration and log_statement ,这将导致错误的计数器值。注意,这也会大大增加日志的大小。log_min_duration_statement应始终首选。

如何产生报告

当有许多小的日志文件和许多CPU时,一次将一个内核专用于一个日志文件会更快。要启用此行为,必须改用-J N选项。对于每个10MB的200个日志文件,-J选项的使用开始变得非常有效,有8个内核。使用此方法,您将确保不会丢失报表中的任何查询。

一个在服务器上完成的基准测试,有8个CPU和9.5GB的单个文件。

Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU

-------- --------- ------- ------- ------

-j | 1h41m18 | 50m25 | 25m39 | 15m58

-J | 1h41m18 | 54m28 | 41m16 | 34m45

200个日志文件,每个10MB,总共2GB,结果略有不同:

Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU

-------- ------- ------- ------- ------

-j | 20m15 | 9m56 | 5m20 | 4m20

-J | 20m15 | 9m49 | 5m00 | 2m40

--产生一个小时的日志报告:

$ pgbadger -q /usr/local/pg12.2/data/pg_log/postgresql-2020-06-19_00*.log

-o /home/postgres/www/pg_reports/day-06-19-00.html

--产生每日和每周的日志报告:

$ pgbadger -I -q /usr/local/pg12.2/data/pg_log/*

-O /home/postgres/www/pg_reports/

-f stderr

在这种模式下,pgBadger将在输出目录中创建一个自动增量文件。这意味着可以在每周旋转的日志文件上每天以这种模式运行pgBadger,并且它不会对日志条目计数两次,可以使用crontab进行定时运行。

--重建报告:

pgbadger -X -I -O /home/postgres/www/pg_reports/ --rebuild

此时在reports目录下产生创建一个目录,里面包含js文件,同时在另外一个目录下创建一个目录week-25,存放index文件。

它还将更新所有资源文件(JS和CSS)。如果报表是使用此选项生成的,请使用-E或--explode。

--默认情况下,增量模式下的pgBadger只计算每日和每周报告。如果需要每月累积报告,则必须使用单独的命令指定要生成的报告。例如,为2019年8月编制一份报告:

pgbadger --month-report 2919-08 /path/to/incremantal/reports/

JSON FORMAT

JSON格式有利于与其他语言共享数据,这使得pgBadger结果很容易集成到其他监控工具(如Cacti或Graphite)中。

报告界面一

报告界面二

0 人点赞