由于做数据库备份的时候,一个库中占大头的都是数据量巨大的log日志表,这些表没有必要导出,解决方案如下:
# 1.导出库中除了日志表之外的表和数据
代码语言:javascript复制[root@summer mysql]# cat bak_etltest1000.sh
# 同步除了那些表之外的表和数据
#mysqldump -h192.168.0.10 -P3306 -uroot --no-create-db -phadoop --max_allowed_packet=512M elxcloud_etltest_T1000 > elxcloud_etltest_T1000.sql
mysqldump -h192.168.0.10 -P3306 -uroot --no-create-db -phadoop --max_allowed_packet=512M elxcloud_etltest_T1000
--ignore-table=elxcloud_etltest_T1000.x_mining_flow_bakup
--ignore-table=elxcloud_etltest_T1000.x_mining_etlflowbackup
--ignore-table=elxcloud_etltest_T1000.x_tk_tasklog
--ignore-table=elxcloud_etltest_T1000.x_ops_monitorlog
--ignore-table=elxcloud_etltest_T1000.x_ops_monitorlog2
--ignore-table=elxcloud_etltest_T1000.x_tk_processlog
--ignore-table=elxcloud_etltest_T1000.x_ops_messagebox
--ignore-table=elxcloud_etltest_T1000.x_ddir_cardcolumn
--ignore-table=elxcloud_etltest_T1000.x_ddir_objcolumn
--ignore-table=elxcloud_etltest_T1000.x_at_session
> elxcloud_etltest_T1000.sql
# 2.导出日志表的表结构
代码语言:javascript复制[root@summer mysql]# cat bak_etltest1000_.sh
# 同步表结构
mysqldump -h192.168.0.10 -P3306 -uroot --no-create-db -phadoop --max_allowed_packet=512M elxcloud_etltest_T1000 --tables
-d
x_mining_flow_bakup
x_tk_tasklog
x_ops_monitorlog
x_ops_monitorlog2
x_tk_processlog
x_ops_messagebox
x_ddir_cardcolumn
x_ddir_objcolumn
x_at_session
> elxcloud_etltest_T1000_.sql