问题导读 1.怎样对字段进行大区转换? 2.怎样拆分打平大JSON? 3.怎样把不同类型的日志数据分别进行存储? 应用场景:
- 数据清洗【实时ETL】
- 数据报表
1、数据清洗【实时ETL】
1.1、需求分析 针对算法产生的日志数据进行清洗拆分
- 算法产生的日志数据是嵌套大JSON格式(json嵌套json),需要拆分打平
- 针对算法中的国家字段进行大区转换
- 最后把不同类型的日志数据分别进行存储
1.2、数据清理 DataClean 结构
1.3、实践运行 1.3.1、Redis 启动redis: 先从一个终端启动redis服务
代码语言:javascript复制./redis-server复制代码
先从一个终端启动redis客户端,并插入数据
代码语言:javascript复制./redis-cli
127.0.0.1:6379> hset areas AREA_US US
(integer) 1
127.0.0.1:6379> hset areas AREA_CT TW,HK
(integer) 1
127.0.0.1:6379> hset areas AREA_AR PK,SA,KW
(integer) 1
127.0.0.1:6379> hset areas AREA_IN IN
(integer) 1
127.0.0.1:6379>复制代码
1.3.2、Kafka 启动kafka:
代码语言:javascript复制./kafka-server-start.sh -daemon ../config/server.properties
复制代码
kafka创建topc:
代码语言:javascript复制./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 5 --topic allData
复制代码
监控kafka topic:
代码语言:javascript复制./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic allDataClean
复制代码
1.3.3、启动程序 先启动 DataClean 程序,再启动生产者程序,kafka生产者产生数据如下:
最后终端观察处理输出的数据:
只有部分数据正确处理输出的原因是:代码中没有设置并行度,默认是按机器CPU核数跑的,这里需要通过 broadcast() 进行广播 1.4、Flink yarn集群启动 向yarn提交任务:
代码语言:javascript复制./bin/flink run -m yarn-cluster -yn 2 -yjm 1024 -ytm 1024 -c henry.flink.DataClean /root/flinkCode/DataClean-1.0-SNAPSHOT-jar-with-dependencies.jar
复制代码
通过 yarn UI 查看任务,并进入Flink job:
启动kafka生产者:
监控topic消费情况:
代码语言:javascript复制./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic allDataClean
复制代码
最终终端输出结果, 同IDEA中运行结果:
代码下载: 链接:
https://pan.baidu.com/s/1993ZK-xOKbhmhzLLLyi8Ww
提取码: pumu
----------------------------END----------------------------